WASHINGTON — Cuando el presidente Biden anunció severas restricciones a la venta de los chips de computadora más avanzados de China en octubre, los vendió en parte como una forma de darle a la industria estadounidense la oportunidad de recuperar su competitividad.
Pero había una segunda agenda en el Pentágono y el Consejo de Seguridad Nacional: el control de armas. Si el ejército chino no puede obtener los chips, según la teoría, podría retrasar sus esfuerzos para desarrollar armas controladas por IA. Esto le dará a la Casa Blanca y al mundo tiempo para idear algunas reglas para usar inteligencia artificial en todo, desde sensores, misiles y armas cibernéticas, y en última instancia, protegerse de algunas de las pesadillas conjuradas por Hollywood: robots asesinos autónomos y computadoras que bloquean sus creadores humanos.
Ahora, la niebla de miedo que rodea al popular chatbot ChatGPT y otro software generativo de inteligencia artificial ha hecho que limitar los chips a Beijing parezca solo una solución temporal. Cuando Biden llegó a una reunión en la Casa Blanca el jueves de ejecutivos de tecnología que luchan por contener los riesgos de la tecnología, su primer comentario fue “lo que estás haciendo tiene un enorme potencial y un enorme peligro”.
Eso fue un reflejo, dicen sus asistentes de seguridad nacional, de informes clasificados recientes sobre el potencial de la nueva tecnología para cambiar la guerra, los conflictos cibernéticos y, como mínimo, la toma de decisiones sobre el uso de armas nucleares.
Pero incluso cuando Biden emitió su advertencia, los funcionarios del Pentágono, hablando en foros de tecnología, dijeron que pensaban que la idea de una pausa de seis meses en el desarrollo de las próximas generaciones de ChatGPT y software similar era una mala idea: los chinos ganaron No espere, y los rusos no lo harán.
“Si nos detenemos, adivinen quién no lo hará: adversarios potenciales en el extranjero”, dijo el miércoles el director de información del Pentágono, John Sherman. “Hay que mantenerse en movimiento.”
Sus comentarios abiertos subrayaron las tensiones que se sienten hoy en la comunidad de defensa. Nadie sabe realmente de qué son capaces estas nuevas tecnologías cuando se trata de desarrollo y control de armas, y no tienen idea de qué régimen de control de armas, si es que lo hay, podría funcionar.
La premonición es vaga pero profundamente inquietante. ¿Podría ChatGPT empoderar a los malos actores que antes no habrían tenido fácil acceso a la tecnología disruptiva? ¿Podría acelerar los enfrentamientos entre superpotencias, dejando poco tiempo para la diplomacia y la negociación?
“La industria aquí no es estúpida, y ya se están viendo esfuerzos de autorregulación”, dijo Eric Schmidt, expresidente de Google que se desempeñó como presidente inaugural del Consejo de Innovación de Defensa de 2016 a 2020.
“Así que hay una serie de conversaciones informales en la industria en este momento, todas informales, sobre cómo serían las reglas de seguridad de la IA”, dijo Schmidt, quien ha escrito una serie de artículos con el exsecretario de Estado Henry Kissinger. y libros sobre el potencial de la inteligencia artificial para cambiar la geopolítica.
Los esfuerzos previos para poner barandillas en el sistema son claros para cualquiera que haya probado las iteraciones iniciales de ChatGPT. Los bots no responderán preguntas sobre cómo dañar a alguien con un brebaje de drogas, por ejemplo, o cómo hacer estallar una represa o paralizar centrífugas nucleares, todas operaciones en las que Estados Unidos y otras naciones se han involucrado sin el beneficio de las herramientas de IA.
Pero estas listas negras de acciones solo ralentizarán el abuso de estos sistemas; pocos creen que pueden detener por completo tales esfuerzos. Siempre hay un truco para sortear los límites de seguridad, como puede atestiguar cualquiera que haya intentado apagar los pitidos de emergencia del sistema de advertencia del cinturón de seguridad de un automóvil.
Si bien el nuevo software popularizó el problema, no es nuevo para el Pentágono. Las primeras reglas para desarrollar armas autónomas se publicaron hace una década. El Centro Conjunto de Inteligencia Artificial del Pentágono se estableció hace cinco años para estudiar el uso de la inteligencia artificial en la guerra.
Algunas armas ahora funcionan en piloto automático. Los misiles Patriot, que derriban misiles o aeronaves que ingresan al espacio aéreo protegido, han tenido durante mucho tiempo un modo “automático”. Les permite disparar sin intervención humana cuando están abrumados por objetivos que se acercan más rápido de lo que un humano puede reaccionar. Pero deben ser monitoreados por personas que puedan detener los ataques si es necesario.
El Mossad de Israel llevó a cabo el asesinato de Mohsen Fakhrizadeh, el principal científico nuclear de Irán, utilizando una ametralladora autónoma montada en una camioneta asistida por inteligencia artificial, aunque parece haber tenido un alto grado de control remoto. Rusia dijo recientemente que ha comenzado a fabricar, pero aún no ha desplegado, su torpedo nuclear submarino Poseidón. Si está a la altura de las expectativas rusas, el arma podría viajar a través del océano de forma autónoma, evadiendo las defensas antimisiles existentes, para entregar un arma nuclear días después del lanzamiento.
Hasta el momento, no hay tratados o acuerdos internacionales que traten sobre tales armas autónomas. En una era en la que los acuerdos de control de armas se abandonan más rápido de lo que se negocian, hay pocas perspectivas de que se llegue a un acuerdo de este tipo. Pero los tipos de desafíos planteados por ChatGPT y sus similares son diferentes y, en cierto modo, más complejos.
En el ejército, los sistemas inspirados en la IA pueden acelerar el ritmo de las decisiones en el campo de batalla hasta el punto de crear riesgos completamente nuevos de ataques accidentales o decisiones tomadas sobre señales engañosas o deliberadamente falsas de ataques inminentes.
“Un problema importante con la IA en el ejército y en la seguridad nacional es cómo defenderse de los ataques que son más rápidos que la toma de decisiones humana”, dijo Schmidt. “Y creo que ese problema está sin resolver. En otras palabras, el misil viene tan rápido que debería haber una respuesta automática. ¿Qué sucede si la señal es falsa?
La Guerra Fría estuvo plagada de historias de advertencias falsas, una vez, porque una tira de entrenamiento destinada a practicar una respuesta nuclear se colocó de alguna manera en el sistema incorrecto y provocó una advertencia de un ataque soviético masivo inminente. (El buen juicio dio como resultado que se retiraran todos). Paul Schare, del Center for a New American Security, señaló en su libro de 2018 Army of None que hubo “al menos 13 incidentes nucleares casi fallidos entre 1962 y 2002”. credibilidad a la noción de que los incidentes cercanos al objetivo son condiciones normales, aunque aterradoras, de las armas nucleares”.
Por eso, cuando las tensiones entre las superpotencias eran mucho menores de lo que son hoy, una serie de presidentes intentaron negociar más tiempo para la toma de decisiones nucleares por parte de todos los países para que nadie entrara en conflicto. Pero la IA generativa amenaza con empujar a los países en la otra dirección, hacia una toma de decisiones más rápida.
La buena noticia es que es probable que las principales potencias tengan cuidado, porque saben cómo sería la respuesta de un adversario. Pero hasta ahora no hay reglas acordadas.
Anya Manuel, exfuncionaria del Departamento de Estado y ahora directora del grupo consultor Rice, Hadley, Gates & Manuel, escribió recientemente que incluso si China y Rusia no están listas para las conversaciones sobre control de armas sobre IA, las reuniones sobre el tema conducirán a discusiones. qué usos de la IA se consideran “más allá de los límites”.
Por supuesto, incluso el Pentágono desconfiará de aceptar muchas restricciones.
“Luché muy duro para lograr una política de que si tienes elementos autónomos de armas, necesitas una forma de apagarlos”, dijo Danny Hillis, un destacado científico informático que fue pionero en las computadoras paralelas utilizadas para la inteligencia artificial. El Sr. Hillis, quien también formó parte de la Junta de Innovación de Defensa, dijo que el rechazo provino de los funcionarios del Pentágono que dijeron “si podemos cerrarlos, el enemigo puede cerrarlos”.
Por lo tanto, los mayores riesgos podrían provenir de actores individuales, terroristas, grupos de ransomware o naciones más pequeñas con habilidades cibernéticas avanzadas, como Corea del Norte, que aprenden a clonar una versión más pequeña y menos restringida de ChatGPT. Y pueden descubrir que el software de IA generativa es ideal para acelerar los ataques cibernéticos y atacar la desinformación.
Tom Burt, quien dirige operaciones de confianza y seguridad en Microsoft, que está impulsando el uso de la nueva tecnología para actualizar sus motores de búsqueda, dijo en un foro reciente en la Universidad George Washington que cree que los sistemas de IA ayudarán a los defensores a detectar comportamientos anómalos más rápido de lo que lo harán. ayudar a los atacantes. Otros expertos no están de acuerdo. Pero dijo que temía que pudiera “mejorar” la difusión de desinformación dirigida.
Todo esto presagia una nueva era en el control de armas.
Algunos expertos dicen que dado que sería imposible detener la propagación de ChatGPT y software similar, la mejor esperanza es limitar los chips especiales y otra potencia informática necesaria para avanzar en la tecnología. Sin duda, esta será una de las muchas fórmulas de control de armamentos que se propondrán en los próximos años, en un momento en que al menos las principales potencias nucleares parecen desinteresadas en negociar armas viejas, y mucho menos nuevas.