Un grupo de líderes de la industria planea advertir el martes que la tecnología de inteligencia artificial que están construyendo algún día podría representar una amenaza existencial para la humanidad y debería considerarse un riesgo público a la par de las pandemias y las guerras nucleares.
“Reducir el riesgo de extinción de la IA debe ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, se lee en una declaración de una oración que se espera que sea publicada por el Centro para la Seguridad de la IA, una organización sin fines de lucro. La carta abierta fue firmada por más de 350 ejecutivos, investigadores e ingenieros que trabajan en IA
Los signatarios incluyeron altos ejecutivos de tres de las principales empresas de inteligencia artificial: Sam Altman, director ejecutivo de OpenAI; Demis Hassabis, CEO de Google DeepMind; y Dario Amodei, CEO de Anthropic.
Jeffrey Hinton y Joshua Bengio, dos de los tres investigadores que ganaron el Premio Turing por su trabajo pionero en redes neuronales y a menudo se les considera los “padrinos” del movimiento moderno de IA, firmaron la declaración, al igual que otros investigadores destacados en el campo ( El tercer ganador del Premio Turing, Yann LeCun, quien dirige los esfuerzos de investigación de IA de Meta, no se había registrado hasta el martes).
La declaración llega en un momento de creciente preocupación por los daños potenciales de la inteligencia artificial. Los avances recientes en los llamados modelos de lenguaje grande (el tipo de sistema de IA que usan ChatGPT y otros chatbots) han generado preocupaciones de que la IA pronto podría usarse a gran escala para difundir desinformación y propaganda, o que podría eliminar millones de trabajos administrativos. .
Algunos creen que la IA podría eventualmente volverse lo suficientemente poderosa como para alterar la sociedad dentro de unos años si no se hace nada para ralentizarla, aunque los investigadores a veces no llegan a explicar cómo sucedería eso. .
Muchos líderes de la industria comparten esos temores, lo que los coloca en la posición inusual de argumentar que la tecnología que están construyendo, y en muchos casos compitiendo furiosamente para construir más rápido que sus competidores, presenta riesgos graves y debe ser regulada estrictamente.
Este mes, Altman, Hassabis y Amodei se reunieron con el presidente Biden y la vicepresidenta Kamala Harris para hablar sobre la regulación de la IA. En el testimonio del Senado después de la reunión, el Sr. Altman advirtió que los riesgos de los sistemas avanzados de IA eran lo suficientemente graves como para justificar la intervención del gobierno y pidió la regulación de la IA por sus daños potenciales.
Dan Hendricks, director ejecutivo del Center for AI Safety, dijo en una entrevista que la carta abierta representa una “salida del armario” para algunos líderes de la industria que han expresado su preocupación, pero solo en privado, sobre los riesgos de la tecnología que están utilizando. desarrollando.
“Hay una idea errónea muy común, incluso en la comunidad de IA, de que solo hay un puñado de condenados”, dijo Hendricks. “Pero en realidad mucha gente expresaría en privado su preocupación por estas cosas”.
Algunos escépticos argumentan que la tecnología de IA aún es demasiado inmadura para representar una amenaza existencial. Cuando se trata de los sistemas de inteligencia artificial actuales, se preocupan más por problemas a corto plazo, como respuestas sesgadas e incorrectas, que por peligros a más largo plazo.
Pero otros argumentan que la IA está mejorando tan rápidamente que ya ha superado el rendimiento a nivel humano en algunas áreas y pronto lo superará en otras. Dicen que la tecnología ha mostrado signos de capacidades y comprensión avanzadas, lo que genera preocupación de que la “inteligencia general artificial” o AGI, un tipo de inteligencia artificial que puede alcanzar o superar el rendimiento a nivel humano en una amplia variedad de tareas, no se mantenga alejada.
En una publicación de blog la semana pasada, el Sr. Altman y otros dos ejecutivos de OpenAI sugirieron varias formas en que los poderosos sistemas de IA podrían administrarse de manera responsable. Hicieron un llamado a la colaboración entre los principales fabricantes de IA, más investigación técnica en modelos de lenguaje grande y la formación de una organización internacional de seguridad de IA similar a la Agencia Internacional de Energía Atómica, que busca controlar el uso de armas nucleares.
El Sr. Altman también expresó su apoyo a las reglas que exigirían que los fabricantes de modelos de inteligencia artificial grandes y de vanguardia se registren para obtener una licencia emitida por el gobierno.
En marzo, más de 1000 tecnólogos e investigadores firmaron otra carta abierta pidiendo una pausa de seis meses en el desarrollo de los modelos de IA más grandes, citando preocupaciones sobre “una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas”. “
Esa carta, que fue organizada por otra organización sin fines de lucro centrada en la IA, el Future of Life Institute, fue firmada por Elon Musk y otros líderes tecnológicos conocidos, pero no había muchas firmas de los principales laboratorios de IA.
La brevedad de la nueva declaración del AI Safety Center (solo 22 palabras) tenía la intención de reunir a los expertos en IA que pueden estar en desacuerdo sobre la naturaleza de los riesgos específicos o los pasos para evitar que ocurran, pero que comparten preocupaciones comunes sobre los poderosos. Sistemas de inteligencia artificial, dijo Hendricks.
“No queríamos presionar por un menú muy grande de 30 posibles intervenciones”, dijo Hendricks. “Cuando eso sucede, se diluye el mensaje”.
La declaración se compartió inicialmente con varios expertos en inteligencia artificial de alto rango, incluido el Sr. Hinton, quien dejó su trabajo en Google este mes para hablar con más libertad, dijo, sobre los daños potenciales de la inteligencia artificial. A partir de ahí, se dirigió a varios de los grandes laboratorios de IA, donde luego se involucraron algunos empleados.
La urgencia de las advertencias de los líderes de IA ha aumentado a medida que millones de personas recurren a los chatbots de IA para entretenimiento, comunicación y mayor productividad, y a medida que la tecnología subyacente mejora rápidamente.
“Creo que si esta tecnología sale mal, puede salir bastante mal”, dijo Altman al subcomité del Senado. “Queremos trabajar con el gobierno para evitar que eso suceda”.