Durante su audiencia la semana pasada ante el Congreso norteamericano, el CEO de OpenAI, Sam Altman, se despachó con un crudo recordatorio de los peligros que entraña la tecnología que su propia empresa hizo accesible para el público en general.
Entre otras cosas, Altman advirtió que los bots conversacionales, como el ChatGPT de su empresa, podrían ser utilizados en campañas de desinformación y manipulación, y le pidió al Congreso que regule el uso de esa tecnología.
regulation should take effect above a capability threshold.AGI safety is really important, and frontier models should be regulated.regulatory capture is bad, and we shouldn’t mess with models below the threshold. open source models and small startups are obviously important. https://t.co/qdWHHFjX4s
— Sam Altman (@sama) May 18, 2023
La IA, dijo Altman, “puede causarle un daño significativo al mundo”.
El testimonio de Altman llega en medio de un acalorado debate que divide a Silicon Valley y a los propios tecnólogos que vienen trabajando para impulsar el uso público de la inteligencia artificial: la discusión sobre la posibilidad de que la IA arrase el mundo dejó de ser tema de la ciencia ficción y ya ingresó en la agenda del poder.
Esa creencia antes marginal de que las máquinas de pronto podrían superar el nivel de inteligencia humana y decidir destruirnos a todos ahora ha cobrado impulso hasta colarse al centro de la escena. Y algunos de los científicos más respetados en ese campo ya están acortando la línea temporal de sus propias predicciones sobre cuándo piensan que las computadoras estarían en condiciones de superar nuestra inteligencia y volverse manipuladoras.
Pero muchos investigadores e ingenieros informáticos dicen que el temor a una IA asesina del estilo de Skynet en las películas de Terminator no tiene base científica, y agregan que eso nos distrae de los problemas reales que esa tecnología ya está causando, incluidos los manifestados por Altman en su exposición ante el Congreso: caos en los derechos de propiedad intelectual, inquietud por la privacidad digital y la vigilancia, un creciente riesgo de que multiplique la capacidad de hackear las ciberdefensas, y ya está permitiendo que los gobiernos desplieguen armas letales que pueden matar sin el control de ningún humano.
Ese debate sobre los demonios de la IA se reavivó cuando Google, Microsoft y OpenAI lanzaron herramientas de uso público basadas en esa revolucionaria tecnología, capaz de mantener conversaciones complejas y de crear imágenes a partir de una simple orden verbal o escrita.
In the NYT today, Cade Metz implies that I left Google so that I could criticize Google. Actually, I left so that I could talk about the dangers of AI without considering how this impacts Google. Google has acted very responsibly.
— Geoffrey Hinton (@geoffreyhinton) May 1, 2023
“No es ciencia ficción”, dice Geoffrey Hinton, conocido como “el padrino” de la IA, que dice que renunció recientemente a su cargo en Google para poder hablar con más libertad sobre estos riesgos. Hasta hace un tiempo, Hinton estimaba que para la llegada de una IA más inteligente que los humanos faltaban entre 30 y 100 años: hoy dice que faltan entre 5 y 20.
“Es lo mismo que si hubieran llegado los extraterrestres, o que estuvieran a punto de aterrizar”, dice Hinton. “No terminamos de darnos cuenta porque hablan bien en inglés, son serviciales, escriben poemas y contestan las cartas aburridas. Pero en realidad son extraterrestres.”
Sin embargo, dentro de las grandes tecnológicas, la mayoría de los ingenieros que trabajan en el desarrollo de esa tecnología no creen que a la gente por ahora deba preocuparla que las máquinas tomen el control.
“La mayoría de los investigadores que trabajan activamente en este campo están más enfocados en los riesgos actuales que los peligros existenciales”, dice Sara Hooker, exinvestigadora de Google y actual directora del laboratorio de IA de la empresa Cohere.
Entre esos riesgos concretos actuales está la posibilidad de que aparezcan bots entrenados exclusivamente con información racista o sexista extraída de la web, reforzando y multiplicando esas ideas. La abrumadora mayoría de los datos que usa la IA para entrenarse están escritos en inglés y provienen de América del Norte o Europa, acrecentando el riesgo de que internet se vuelva todavía más sesgado y alejado de los idiomas y las culturas de la mayor parte de la humanidad. Los bots también suelen arrojar información falsa haciendo creer que es verídica. El alcance de la onda expansiva de esta tecnología todavía es desconocido, y hay sectores enteros de la economía que se preparan para lo peor, y también profesionales bien pagos, como médicos y abogados, que podrían ser reemplazados.
Los riesgos existenciales parecen más crudos, pero podría argumentarse que son más difusos y difíciles de cuantificar: un futuro en el que la IA ataque a los humanos o incluso tome el control de nuestra sociedad y de nuestras instituciones.
“Para muchos, son solo algoritmos que simplemente repiten lo que ven en la web. Para otros, esos algoritmos exhiben una incipiente capacidad de ser creativos, de razonar y planificar”, dijo Sundar Pichai, CEO de Google, durante una entrevista en abril. “Tenemos que abordar el tema con humildad”.
El debate surge por revolucionarios avances de la última década en un campo de la informática llamado “aprendizaje automático”, con el desarrollo de un software que puede extraer conocimientos recientes de grandes cantidades de datos sin recibir instrucciones explícitas de los humanos. Esa tecnología ya es omnipresente y es la que potencia las redes sociales, los motores de búsqueda y los programas de reconocimiento de imágenes.
Pero el año pasado, OpenAI y un puñado de otras pequeñas empresas empezaron a lanzar herramientas basadas en la siguiente fase evolutiva del aprendizaje automático: la IA generativa. Conocidos como “modelos de lenguaje grande” y entrenados con trillones de fotos y textos absorbidos de Internet, esos sistemas pueden generar imágenes y texto a partir de instrucciones simples, mantener conversaciones complejas, y hasta escribir códigos informáticos.
Las grandes tecnológicas compiten entre sí para construir máquinas cada vez más inteligentes, y con poca supervisión, señala Anthony Aguirre, director ejecutivo del Instituto para el Futuro de la Vida, fundado en 2014 y dedicado al estudio de los riesgos existenciales para la sociedad.
Para Aguirre, si la IA adquiere la capacidad de razonar mejor que los humanos, intentará controlarse a sí misma, un peligro que debería preocuparnos tanto como los riesgos concretos actuales.
“Para impedir que la IA se descarrile necesitaremos protecciones tecnológicas cada vez más complejas”, dice Aguirre. “Eso la ciencia ficción lo ha reflejado bastante bien.”
Pero la crítica más fuerte al debate esos sobre futuros “robots asesinos” provienen de investigadores que estudian la contracara de esta tecnología desde hace años.
En 2020, Timnit Gebru y Margaret Mitchell, investigadores de Google, y Emily M. Bender y Angelina McMillan-Major, de la Universidad de Washington, coescribieron un artículo con donde argumentan que la gran capacidad de los “modelos de lenguaje grande” para imitar el habla humana acrecentaba el riesgo de que las personas empezaran a considerarlos “sintientes”.
Por el contrario, dijeron, esos modelos deberían entenderse como “loros estocásticos”, en otras palabras, son muy buenos para predecir la siguiente palabra de una oración basándose puramente en las probabilidades, sin la menor noción de lo que están diciendo. Otros escépticos dicen que los modelos de lenguaje grande no son más que un “autocompletar anabolizado” o una “salchicha de conocimientos”.
Por Gerrit De Vynck
Traducción de Jaime Arrambide