Videos falsos, elecciones legislativas, inteligencia artificial y los peligros de su uso desenfrenado en tiempos de democracias endebles.
Por Pablo Manolo Rodriguez*
Las recientes elecciones para legisladores de la Ciudad de Buenos Aires estuvieron marcadas por el uso y abuso de lo que llaman “inteligencia artificial”. Lo más resonante fue el video fake difundido por las redes libertarias donde se lo ve a Mauricio Macri pidiendo el voto para el candidato oficialista, Manuel Adorni, por la anulación de la presentación de la candidata de su partido: Silvia Lospennato. Pero no menos sorprendente fue la intervención del joven candidato por la vieja Unión del Centro Democrático, el inefable Ramiro Marra. Confesó que el ChatGPT es un instrumento para armar proyectos de ley en su condición de legislador “y así vemos cómo sobran los asesores” y que también es un “eficaz psicólogo” que lo ayudó a superar muchos problemas, en especial cuando fue expulsado del partido de gobierno. Parece que las destrezas de la IA son innumerables: falsificadora, legisladora y psicóloga.
Hace exactamente medio siglo, un equipo del Massachusetts Institute of Technology dirigido por el informático alemán Joseph Weizenbaum diseñó un chatbot que procesaba lenguaje natural llamado Eliza, cuyo guión más famoso era “Doctor”, un programa que simulaba un psicoterapeuta de la escuela rogeriana. Muchos pacientes de Doctor se mostraron tan contentos con los diálogos mantenidos que quisieron seguir tratándose con el programa, atribuyéndole incluso una conciencia y una intencionalidad. Esto llevó a Weizenbaum a escribir un libro muy recomendable, Las fronteras entre la computadora y la mente, donde discutía cómo era posible que le asignaran al chatbot semejante poder y que la simulación pudiera ser tomada por la realidad.
En aquel tiempo, la IA daba sus primeros pasos a través de dos corrientes paralelas y contrapuestas. Una, la llamada “IA débil”, decía que las máquinas computacionales podían simular una inteligencia “humana”; la otra, la “IA fuerte”, que más que simular podía pensar, aprender y evolucionar culturalmente al igual que una “inteligencia” humana. Al mismo tiempo, había dos hipótesis en pugna. El programa de investigación dominante, el cognitivista, en el que se inscribían experimentos como el de Eliza, suponía que el pensamiento era básicamente algo secuencial relacionado con la lógica, y que eso es lo que debía “imitar” la computadora respecto del cerebro humano. La otra interpretación, la conexionista, venía a decir que el pensamiento excede en mucho las secuencias lógicas y que se trataba de engendrar conexiones nuevas que producían conductas y representaciones emergentes. Los conexionistas afirmaban que la inteligencia es un asunto de redes neuronales y que las biológicas (y dentro de ellas las humanas) eran muy superiores a las que se podían realizar de modo artificial.
Los resultados de la IA eran entonces más bien modestos, tanto que a mediados de los ’70 sobrevino el denominado “invierno de la IA” porque se cortó el financiamiento de los gobiernos de Estados Unidos y Gran Bretaña. Marvin Minsky, cognitivista, uno de los mentores del campo de la IA, admitió en ese entonces que el problema era que las computadoras “vivían” en entornos de baja complejidad. El verano de la IA llegó mucho tiempo después, en los inicios del siglo XXI, cuando quedaron plasmados importantes cambios técnicos: mejoras en la velocidad y capacidad de procesamiento computacional, la expansión de los dispositivos digitales en la vida cotidiana (de las viejas y aparatosas computadoras de escritorio a los pequeños smartphones portátiles, de los anchos cables a las ondas satelitales de wifi, etc.) y la reticulación de los dispositivos informáticos en internet. Pero todos esos cambios, además de técnicos, fueron sociales: se logró sacar a los sistemas de IA de los laboratorios para “enchufarlos” a la vida social; un entorno de alta complejidad, como quería Minsky.
La aceleración de la IA es directamente proporcional a la emergencia del modelo de plataformas. Google es el caso emblemático: digitalizó y digitaliza de manera masiva textos, sonidos, imágenes, y más, para luego ofertarlos como datos de manera gratuita a cambio del acceso al sistema operativo de todos los dispositivos de información (celulares, tablets, computadoras, etc.) que se conectan a internet. De esa manera se generó un ecosistema donde a cambio de algunos datos se pueden obtener muchos más, provenientes de cada interacción social, y donde los algoritmos pueden a partir de ellos generar nuevos patrones, nuevos datos, nuevos perfiles, en una retroalimentación constante. Gracias a ello pudieron desarrollarse las redes neuronales artificiales, que son “entrenadas” por las redes sociales con las que interactúan y con las que interactuamos. Así, el conexionismo encontró su confirmación por la vía social, más que la biológica. La vieja idea de una inteligencia artificial, propiedad de una máquina o un sistema de máquinas ultrapotente y humanoide, daría paso más bien a una “sociedad artificial” o a una “inteligencia social” transformada en datos o en algoritmos.
En los últimos tiempos ganó fuerza la clasificación propuesta por Ray Kurzweil, director de ingeniería de IA de Google, multi inventor y mentor de la Universidad de la Singularidad, en la que plantea que la IA débil sea rebautizada como IA estrecha y la IA fuerte como IA general. Pero suma una tercera clasificación que está en la base de muchas inquietudes teóricas y prácticas en nuestros días: la “Superinteligencia”, que se define básicamente como una inteligencia “no humana” y “no social”, para la cual no tenemos medida de comparación. No se trata ya de que una máquina computacional simule algo humano, ni tampoco que lo haga realmente y hasta mejor que un ser humano (aunque deberíamos definir qué es mejor, respecto de qué y en qué contexto), sino que haga otra cosa: algo mucho más importante, sin medida antropocéntrica.
Ahora bien, mientras la inteligencia no biológica no se nos manifieste (o si ya se ha manifestado pero no nos hemos dado cuenta y vivimos ya en otro universo), se plantea un problema político y social de primer orden para el cual se precisa la intervención de las ciencias sociales. La “inteligencia social” o la “sociedad artificial” son captadas, gestionadas y distribuidas por corporaciones como Google que ahora, luego de dos décadas de redes sociales con pandemia mediante, se erigen como controladoras del entorno digital en el que vivimos.
Las famosas GAFAM (Google, Amazon, Facebook ahora Meta, Apple y Microsoft) encontraron en las IA la forma privilegiada para ampliar y potenciar ese entorno con todos los problemas que conocemos: los filtros burbuja, los sesgos algorítmicos, las fake news, sus consecuencias a nivel político, la crisis ambiental generada por el descomunal consumo energético de granjas de servidores y procesadores, etc. Las plataformas se erigen hoy como un modelo político y económico sustentado, en parte, en esta progresión de las IA, lo cual no quiere decir que ellas sean sólo el “brazo técnico” del capitalismo ultrasalvaje y fascista encarnado por Elon Musk.
Desde la investigación encarada por Tecnocenolab, en la Facultad de Ciencias Sociales, proponemos una clasificación que atienda al funcionamiento efectivo de la IA en lo social y a la posibilidad de intervenir en su desarrollo, asumiendo que Ia IA es mucho más que un chatbot terapeuta. En una escala micro, la IA automatiza y optimiza funciones específicas en una lógica parecida a los sistemas expertos propios de la IA débil o estrecha: geolocalización, navegación automática de aviones, traductores online, entre otros. En la escala meso se ubican los sistemas de IA donde hay más “toma de decisiones” que mera asistencia: logística de puertos y de energía eléctrica, redacción de dictámenes judiciales, medición de riesgos crediticios, perfilización de consumos, interpretación de estadísticas y recomendaciones de servicios de salud. Es una IA más cercana a la IA fuerte o general, pero no por las características intrínsecas de los dispositivos, sino por el modo en que los sujetos privados y públicos se relacionan con ellos, asignándoles procesos que requieren de una supervisión humana de una manera mucho más clara que en la escala micro.
Finalmente, en la escala macro se encuentran las grandes corporaciones de plataformas que conectan las otras dos escalas y donde el nivel de capacidad de cómputo y de gestión de datos es tal que se plantea el crecimiento de las IA en el plano de una supuesta “superinteligencia”. Aquí también es preciso evitar el análisis que pone el foco en lo que los dispositivos de IA hacen “por sí mismos”. El ejemplo del tan promocionado machine learning es ilustrativo. La “máquina” que “aprende” lo hace a semejante velocidad, se dice, gracias a que se “autoentrena” a partir del entrenamiento realizado por seres humanos (como en los captcha donde hay que identificar tractores), con tantos parámetros que es imposible documentar y reconstruir el proceso; esto es, que ya no hay programación humana que pueda dar cuenta de cómo y por qué hizo lo que hizo. Esta autonomización de la automatización se multiplica exponencialmente por los procesos de datificación, pero en ambos casos la “cajanegrización” de los procesos es una decisión política y económica de las plataformas que luego se traduce en esta disposición tecnológica.
Por eso, los procesos de regulación, de resistencia y de generación de alternativas a estas arquitecturas algorítmicas se encuentran en esta escala macro, y también en la escala meso, aunque con poco éxito porque, efectivamente, la era de la IA por el momento es la del control del mundo digital de parte de las plataformas. Es en la interacción constante entre datos, algoritmos y plataformas, facetada política, económica, social y culturalmente, donde es necesaria la intervención crítica.
Para orientarnos en ese tipo de intervención, haríamos bien en imaginar qué opinaría Joseph Weizenbaum de la relación entre ChatGPT y Ramiro Marra. Seguramente no creerá que se trate de una “superinteligencia”.
*Pablo Manolo Rodriguez
Profesor Asociado de la Facultad de Ciencias Sociales de la Universidad de Buenos Aires e Investigador Independiente de Conicet. Autor de Historia de la información (2012) y de Las palabras en las cosas. Saber, poder y subjetivación entre algoritmos y biomoléculas (2019). Fanático de Vélez y del whisky.