En marzo, dos empleados de Google cuyo trabajo es revisar los productos de IA de la empresa intentaron evitar que Google lanzara un chatbot de IA. Creían que generaba afirmaciones inexactas y peligrosas.
Diez meses antes, especialistas en ética y otros empleados habían planteado preocupaciones similares en Microsoft. Escribieron en varios artículos que la tecnología de inteligencia artificial detrás de un chatbot planificado podría inundar los grupos de Facebook con información errónea, afectar el pensamiento crítico y socavar la base fáctica de la sociedad moderna.
Las empresas han lanzado sus chatbots de todos modos. Microsoft fue el primero en presentar un evento de alto perfil en febrero para presentar un chatbot de IA integrado en su motor de búsqueda Bing. Google siguió unas seis semanas después con su propio chatbot, Bard.
Los movimientos agresivos de las empresas que normalmente tienen aversión al riesgo han sido impulsados por una carrera para controlar lo que podría ser el próximo gran avance en la industria tecnológica: la IA generativa, la nueva y poderosa tecnología que impulsa estos chatbots.
Esa carrera tomó un tono frenético en noviembre cuando OpenAI, una startup de San Francisco que trabaja con Microsoft, lanzó ChatGPT, un chatbot que cautivó la imaginación del público y ahora tiene alrededor de 100 millones de usuarios mensuales.
El sorpresivo éxito de ChatGPT ha llevado a Microsoft y Google a querer asumir mayores riesgos con sus pautas éticas, que se han creado a lo largo de los años para garantizar que su tecnología no cause problemas sociales, según 15 empleados actuales y anteriores y documentos internos de la empresa.
La urgencia de construir con la nueva IA se cristalizó en un correo electrónico interno enviado el mes pasado por Sam Shilas, director de tecnología de Microsoft. Escribió en el correo electrónico, que fue revisado por The New York Times, que fue “absolutamente un error fatal en este momento preocuparse por las cosas que pueden arreglarse más adelante”.
Cuando la industria de la tecnología gira repentinamente hacia un nuevo tipo de tecnología, la primera empresa en presentar un producto “es la ganadora a largo plazo simplemente porque comenzó primero”, escribe. “A veces la diferencia se mide en semanas”.
Las tensiones entre los que se preocupan por la industria y los que toman riesgos se manifestaron públicamente la semana pasada cuando más de 1000 investigadores y líderes de la industria, incluidos Elon Musk y el cofundador de Apple, Steve Wozniak, pidieron una pausa de seis meses en el desarrollo de una poderosa tecnología de IA. En una carta pública, dijeron que planteaba “riesgos profundos para la sociedad y la humanidad”.
Los reguladores ya están amenazando con intervenir. La Unión Europea propuso una legislación para regular la IA e Italia prohibió temporalmente ChatGPT la semana pasada. En Estados Unidos, el presidente Biden se convirtió el martes en el último funcionario en cuestionar la seguridad de la IA.
Una nueva generación de chatbots
Nuevo mundo valiente. Una nueva generación de chatbots impulsados por IA ha desatado una lucha para determinar si la tecnología puede revolucionar la economía de Internet, convirtiendo las potencias actuales en viejas y creando los próximos gigantes de la industria. Estos son los bots que debe conocer:
“Las empresas de tecnología tienen la responsabilidad de asegurarse de que sus productos sean seguros antes de hacerlos públicos”, dijo en la Casa Blanca. Cuando se le preguntó si la inteligencia artificial era peligrosa, dijo: “Ya veremos. Puede ser.”
Las preguntas que se plantean ahora fueron alguna vez las preocupaciones que hicieron que algunas empresas se sentaran en una nueva tecnología. Habían aprendido que liberar la IA prematuramente podía ser vergonzoso. Hace cinco años, por ejemplo, Microsoft retiró rápidamente un chatbot llamado Tay después de que los usuarios lo presionaron para generar respuestas racistas.
Los investigadores dicen que Microsoft y Google se están arriesgando al lanzar tecnología que incluso sus desarrolladores no entienden completamente. Pero las empresas dijeron que limitaron el lanzamiento inicial de sus nuevos chatbots y que crearon sofisticados sistemas de filtrado para eliminar el discurso de odio y el contenido que podría causar un daño evidente.
Natasha Crampton, directora de inteligencia artificial de Microsoft, dijo en una entrevista que seis años de trabajo en torno a la inteligencia artificial y la ética en Microsoft le han permitido a la empresa “moverse con agilidad y cuidado”. Agregó que “nuestro compromiso con la IA responsable sigue siendo inquebrantable”.
Google lanzó Bard después de años de desacuerdo interno sobre si los beneficios de la IA generativa superaban los riesgos. Anunció a Meena, un chatbot similar, en 2020. Pero ese sistema se consideró demasiado arriesgado para su lanzamiento, dijeron tres personas familiarizadas con el proceso. Estas preocupaciones fueron reportadas previamente por The Wall Street Journal.
Más adelante en 2020, Google bloqueó a sus principales investigadores éticos de IA, Timnit Gebru y Margaret Mitchell, para que no publicaran un artículo que advirtiera que los llamados modelos de lenguaje grande utilizados en los nuevos sistemas de IA, que están entrenados para reconocer patrones a partir de grandes cantidades de datos, pueden pronunciar lenguaje abusivo o discriminatorio. Los investigadores fueron expulsados después de que la Sra. Gebru criticara los esfuerzos de diversidad de la compañía, y la Sra. Mitchell fue acusada de violar su código de conducta después de que ella guardó algunos correos electrónicos de trabajo en una cuenta personal de Google Drive.
La Sra. Mitchell dijo que había tratado de ayudar a Google a lanzar productos de manera responsable y evitar la regulación, pero en cambio “realmente se dispararon en el pie”.
Brian Gabriel, un portavoz de Google, dijo en un comunicado que “seguimos haciendo de la IA responsable una máxima prioridad, utilizando nuestros principios de IA y estructuras de gobierno interno para compartir responsablemente los avances de la IA con nuestros usuarios”.
Persisten las preocupaciones sobre los modelos más grandes. En enero de 2022, Google se negó a permitir que otro investigador, El Mahdi El Mhamdi, publicara un artículo crítico.
El Mhamdi, un empleado a tiempo parcial y profesor universitario, usó teoremas matemáticos para advertir que los modelos de IA más grandes eran más vulnerables a los ataques de seguridad cibernética y presentaban riesgos de privacidad inusuales porque era probable que tuvieran acceso a datos personales almacenados en varios lugares alrededor. La Internet.
Aunque una presentación ejecutiva advirtió más tarde sobre violaciones similares a la privacidad de la IA, los revisores de Google le pidieron a El Mhamdi cambios sustanciales. Él se negó y pasó el documento por la École Polytechnique.
Renunció a Google este año, citando en parte la “censura de la investigación”. Dijo que los riesgos de la IA moderna “superan con creces” los beneficios. “Es un despliegue prematuro”, agregó.
Después del lanzamiento de ChatGPT, Kent Walker, el principal abogado de Google, se reunió con líderes de investigación y seguridad en la poderosa Junta de Revisión de Tecnología Avanzada de la empresa. Les dijo que Sundar Pichai, CEO de Google, estaba presionando mucho para lanzar la IA de Google.
Jen Jenay, directora del Grupo de Innovación Responsable de Google, asistió a esta reunión. Recordó lo que el Sr. Walker le había dicho a su personal.
La reunión fue “Kent estaba hablando con los ejecutivos de ATRC y les decía: ‘Esta es una prioridad de la empresa'”, dijo Jennai en una grabación revisada por The Times. “¿Cuáles son tus preocupaciones? Hagamos una fila”.
Walker les dijo a los asistentes que aceleraran los proyectos de IA, aunque algunos ejecutivos dijeron que mantendrían los estándares de seguridad, dijo Jenai.
Su equipo ya ha documentado las preocupaciones sobre los chatbots: pueden producir información falsa, dañar a los usuarios que se apegan emocionalmente a ellos y permitir la “violencia facilitada por la tecnología” a través del acoso masivo en línea.
En marzo, dos revisores del equipo de la Sra. Gennai presentaron su evaluación de riesgos a Bard. Recomendaron bloquear su próximo lanzamiento, dijeron dos personas familiarizadas con el proceso. A pesar de las precauciones, creen que el chatbot no está listo.
Extrañar. Jenay modificó este documento. Ella aceptó la recomendación y minimizó la gravedad de los riesgos de Bard, dijeron las personas.
La Sra. Jenay dijo en un correo electrónico a The Times que debido a que Bard es un experimento, los revisores no deberían juzgar si continuar. Ella dijo que había “corregido suposiciones inexactas y en realidad agregó más riesgos y daños que necesitaban atención”.
Google dijo que lanzó Bard como un experimento limitado debido a esos debates, y la Sra. Jenai dijo que la capacitación continua, las medidas de seguridad y los descargos de responsabilidad hacen que el chatbot sea más seguro.
Google lanzó Bard para algunos usuarios el 21 de marzo. La compañía dijo que pronto integrará IA generativa en su motor de búsqueda.
Satya Nadella, CEO de Microsoft, apostó por la IA generativa en 2019 cuando Microsoft invirtió mil millones de dólares en OpenAI. Después de decidir que la tecnología estaba lista en el verano, el Sr. Nadella presionó para que todos los equipos de productos de Microsoft adoptaran la IA.
Microsoft tenía políticas desarrolladas por la Oficina de Inteligencia Artificial Responsable, un equipo dirigido por la Sra. Crampton, pero las pautas no se aplicaron ni siguieron de manera consistente, dijeron cinco empleados actuales y anteriores.
A pesar del principio de “transparencia”, a los expertos en ética que trabajan en el chatbot no se les ha dicho qué datos usó OpenAI para desarrollar sus sistemas, según tres personas involucradas en el trabajo. Algunos han argumentado que integrar chatbots en un motor de búsqueda es una idea particularmente mala, dado que a veces proporciona detalles falsos, dijo una persona con conocimiento directo de las conversaciones.
La Sra. Crampton dijo que los expertos de Microsoft trabajaron en Bing y que las personas clave tenían acceso a los datos de capacitación. La compañía está trabajando para hacer que el chatbot sea más preciso vinculándolo a los resultados de búsqueda de Bing, agregó.
En otoño, Microsoft comenzó a desmantelar uno de sus equipos de ética tecnológica más grandes. El grupo Ética y Sociedad forma y asesora a los líderes de producto de la empresa para diseñar y construir de forma responsable. En octubre, la mayoría de sus miembros se dividieron en otros grupos, según cuatro personas familiarizadas con el equipo.
Los pocos restantes se unieron a las reuniones diarias con el equipo de Bing, compitiendo para lanzar el chatbot. John Montgomery, director ejecutivo de AI, les dijo en un correo electrónico en diciembre que su trabajo sigue siendo vital y que más equipos “también necesitarán nuestra ayuda”.
Luego de la introducción de Bing basado en IA, el equipo de ética documentó las preocupaciones en curso. Los usuarios pueden volverse demasiado dependientes de la herramienta. Las respuestas inexactas pueden inducir a error a los usuarios. La gente podía creer que un chatbot que usaba “yo” y emoticonos era humano.
A mediados de marzo, el equipo fue despedido, acción que fue reportada por primera vez por el boletín técnico Platformer. Pero la Sra. Crampton dijo que cientos de empleados todavía estaban trabajando en esfuerzos de ética.
Microsoft está lanzando nuevos productos cada semana, un ritmo frenético para cumplir con los planes que el Sr. Nadella puso en marcha durante el verano cuando presentó una vista previa del último modelo de OpenAI.
Le pidió al chatbot que tradujera al poeta persa Rumi al urdu y luego al inglés. “Funcionó a las mil maravillas”, dijo en una entrevista en febrero. “Fue entonces cuando dije, ‘Oh, Dios mío, esta cosa’.
mike isaac reportaje contribuido. susan c playa investigación aportada.