A finales de marzo, más de 1000 líderes tecnológicos, investigadores y otros profesionales que trabajan en la inteligencia artificial y sus alrededores firmaron una carta abierta advirtiendo que las tecnologías de IA plantean “profundos riesgos para la sociedad y la humanidad”.
El grupo, que incluye al CEO de Tesla y propietario de Twitter, Elon Musk, pidió a los laboratorios de inteligencia artificial que detengan el desarrollo de sus sistemas más poderosos durante seis meses para que puedan comprender mejor los peligros detrás de la tecnología.
“Los poderosos sistemas de inteligencia artificial deben desarrollarse solo después de que estemos seguros de que sus efectos serán positivos y sus riesgos manejables”, decía la carta.
La carta, que ya cuenta con más de 27.000 firmas, fue breve. Su lengua era ancha. Y algunos de los nombres detrás de la carta parecen tener una relación controvertida con la IA. El Sr. Musk, por ejemplo, está construyendo su propia empresa de IA y es uno de los principales donantes de la organización que escribió la carta.
Pero la carta representa una preocupación creciente entre los expertos en inteligencia artificial de que los sistemas más recientes, en particular GPT-4, la tecnología iniciada por la startup OpenAI de San Francisco, podría dañar a la sociedad. Creían que los sistemas futuros serían aún más peligrosos.
Algunos de los riesgos han llegado. Otros no lo harán durante meses o años. Otros son puramente hipotéticos.
“Nuestra capacidad para comprender lo que puede salir mal con sistemas de IA muy potentes es muy pobre”, dijo Joshua Bengio, profesor e investigador de IA en la Universidad de Montreal. “Así que tenemos que tener mucho cuidado”.
¿Por qué se molestan?
El Dr. Bengio es quizás la persona más importante que firmó la carta.
Trabajando con otros dos científicos, Geoffrey Hinton, hasta hace poco investigador en Google, y Jan LeCun, ahora científico jefe de inteligencia artificial en Meta, el propietario de Facebook, el Dr. Bengio ha pasado las últimas cuatro décadas desarrollando tecnología que impulsa sistemas como GPT- 4. En 2018, los investigadores recibieron el Premio Turing, a menudo llamado el “Premio Nobel de computación”, por su trabajo en redes neuronales.
Una red neuronal es un sistema matemático que aprende habilidades mediante el análisis de datos. Hace unos cinco años, compañías como Google, Microsoft y OpenAI comenzaron a construir redes neuronales que aprendían de grandes cantidades de texto digital, llamadas modelos de lenguaje grande o LLM.
Al identificar patrones en este texto, los LLM aprenden a generar texto ellos mismos, incluidas publicaciones de blog, poemas y programas de computadora. Incluso pueden mantener una conversación.
Esta tecnología puede ayudar a los programadores de computadoras, escritores y otros trabajadores a generar ideas y hacer las cosas más rápido. Pero el Dr. Bengio y otros expertos también advirtieron que los LLM pueden aprender comportamientos no deseados e inesperados.
Estos sistemas pueden generar información falsa, sesgada y tóxica. Los sistemas como GPT-4 se equivocan en los hechos e inventan información, un fenómeno llamado “alucinación”.
Las empresas están trabajando en estos temas. Pero a expertos como el Dr. Bengio les preocupa que, a medida que los investigadores hagan que estos sistemas sean más potentes, introducirán nuevos riesgos.
Riesgo a corto plazo: desinformación
Debido a que estos sistemas brindan información con lo que parece ser una total confianza, puede ser difícil separar la verdad de la ficción al usarlos. A los expertos les preocupa que las personas confíen en estos sistemas para obtener asesoramiento médico, apoyo emocional y la información en bruto que utilizan para tomar decisiones.
“No hay garantía de que estos sistemas sean correctos en cada tarea que les des”, dijo Subbarao Kambampati, profesor de informática en la Universidad Estatal de Arizona.
A los expertos también les preocupa que las personas abusen de estos sistemas para difundir información errónea. Debido a que pueden conversar de manera humana, pueden ser sorprendentemente persuasivos.
“Ya tenemos sistemas que pueden interactuar con nosotros a través del lenguaje natural y no podemos distinguir lo real de lo falso”, dijo el Dr. Bengio.
Riesgo a medio plazo: pérdida de empleo
A los expertos les preocupa que la nueva inteligencia artificial pueda eliminar puestos de trabajo. Actualmente, tecnologías como GPT-4 tienden a complementar a los trabajadores humanos. Pero OpenAI reconoce que podrían reemplazar a algunos trabajadores, incluidas las personas que moderan contenido en Internet.
Todavía no pueden duplicar el trabajo de abogados, contadores o médicos. Pero podrían reemplazar a los asistentes legales, asistentes personales y traductores.
Un artículo escrito por investigadores de OpenAI estima que el 80 por ciento de la fuerza laboral de EE. UU. puede tener al menos el 10 por ciento de sus tareas laborales afectadas por los LLM y que el 19 por ciento de los trabajadores puede ver al menos el 50 por ciento de sus tareas afectadas.
“Hay indicios de que los trabajos rutinarios van a desaparecer”, dijo Oren Etzioni, director ejecutivo del Instituto Allen para la IA, un laboratorio de investigación en Seattle.
Riesgo a largo plazo: Pérdida de control
Algunas personas que firmaron la carta también creen que la inteligencia artificial podría escaparse de nuestro control o destruir a la humanidad. Pero muchos expertos dicen que esto es muy exagerado.
La carta fue escrita por un grupo del Future of Life Institute, una organización dedicada al estudio de los riesgos existenciales para la humanidad. Advierten que debido a que los sistemas de IA a menudo aprenden un comportamiento inesperado a partir de la gran cantidad de datos que analizan, pueden crear problemas graves e inesperados.
Les preocupa que, a medida que las empresas conectan los LLM a otros servicios de Internet, esos sistemas podrían obtener poderes inesperados porque pueden escribir su propio código de computadora. Dicen que los desarrolladores crearán nuevos riesgos si permiten que los potentes sistemas de IA ejecuten su propio código.
“Si observa una extrapolación directa de dónde estamos ahora a dentro de tres años, las cosas son bastante extrañas”, dijo Anthony Aguirre, cosmólogo teórico y físico de UC Santa Cruz y cofundador del Future of Life Institute.
“Si tomas un escenario menos probable, donde las cosas realmente despegan, donde no hay una gobernanza real, donde estos sistemas resultan ser más poderosos de lo que pensábamos que iban a ser, entonces las cosas se vuelven realmente locas”. él dijo.
Etzioni dijo que hablar de riesgo existencial era hipotético. Pero dijo que otros riesgos, sobre todo la información errónea, ya no eran especulaciones.
“Tenemos algunos problemas reales ahora”, dijo. “Son de buena fe. Requieren una respuesta responsable. Pueden requerir regulación y legislación.