¿Por qué los chatbots de IA dicen mentiras y se comportan de forma extraña? Mírate en el espejo. - كورة برس

¿Por qué los chatbots de IA dicen mentiras y se comportan de forma extraña? Mírate en el espejo.

جوجل بلس

Cuando Microsoft agregó un chatbot a su motor de búsqueda Bing este mes, la gente notó que ofrecía todo tipo de información falsa sobre Gap, la vida nocturna mexicana y la cantante Billie Eilish.

Luego, cuando los periodistas y otros probadores iniciales entablaron largas conversaciones con el bot de IA de Microsoft, se desvió hacia un comportamiento grosero e inquietantemente siniestro.

En los días transcurridos desde que el comportamiento del bot de Bing se convirtió en una sensación mundial, la gente ha luchado por comprender la extrañeza de esta nueva creación. La mayoría de las veces, los científicos dicen que los humanos merecen gran parte de la culpa.

Pero todavía hay un poco de misterio sobre lo que puede hacer el nuevo chatbot y por qué lo haría. Su complejidad hace que sea difícil de analizar y aún más difícil de predecir, y los investigadores lo ven a través de lentes filosóficos, así como a través del código duro de la informática.

Como cualquier otro alumno, un sistema de IA puede aprender mala información de malas fuentes. ¿Y este extraño comportamiento? Ese puede ser el reflejo distorsionado de un chatbot de las palabras y las intenciones de las personas que lo usan, dijo Terry Seinowski, neurocientífico, psicólogo e informático que ayudó a sentar las bases intelectuales y técnicas de la inteligencia artificial moderna.

“Esto es lo que sucede cuando profundizas más y más en estos sistemas”, dijo el Dr. Sejnowski, profesor del Instituto Salk de Estudios Biológicos y la Universidad de California en San Diego, quien publicó un artículo de investigación sobre el fenómeno este mes en la revista científica Neural Computation. Lo que sea que estés buscando, lo que sea que desees, te lo proporcionarán.

Google también mostró un nuevo chatbot, Bard, este mes, pero los científicos y los periodistas rápidamente se dieron cuenta de que estaba diciendo tonterías sobre el Telescopio Espacial James Webb. OpenAI, una startup de San Francisco, inició el auge de los chatbots en noviembre cuando presentó ChatGPT, que tampoco siempre dice la verdad.

Los nuevos chatbots están impulsados ​​por una tecnología que los científicos llaman modelo de lenguaje grande o LLM. Estos sistemas aprenden analizando grandes cantidades de texto digital extraído de Internet, que incluye volúmenes de material falso, sesgado y tóxico. El texto del que aprenden los chatbots también está un poco desactualizado porque tienen que pasar meses analizándolos antes de que el público pueda usarlos.

A medida que analiza este mar de información buena y mala de todo Internet, LLM aprende a hacer una cosa en particular: adivinar la siguiente palabra en una cadena de palabras.

Funciona como una versión gigante de la tecnología de autocompletar que sugiere la siguiente palabra a medida que escribe un correo electrónico o un mensaje instantáneo en su teléfono inteligente. Dada la serie “Tom Cruise es ____”, uno podría adivinar “actor”.

Cuando hablas con un chatbot, el bot no solo extrae todo lo que aprendió de Internet. Se basa en todo lo que le dijiste y en todo lo que te respondió. No es solo adivinar la siguiente palabra en la oración. Esto es adivinar la siguiente palabra en el largo bloque de texto que incluye tanto tus palabras como las de él.

Cuanto más se prolonga la conversación, más influencia tiene el usuario sin darse cuenta en lo que dice el chatbot. Si quieres que se enoje, se enoja, dijo el Dr. Seinowski. Si lo obligas a volverse espeluznante, se volverá espeluznante.

Las reacciones de alarma ante el extraño comportamiento del chatbot de Microsoft han oscurecido un punto importante: el chatbot no tiene personalidad. Ofrece resultados instantáneos, escupidos por un algoritmo informático increíblemente complejo.

Microsoft parece haber frenado el comportamiento más extraño cuando puso un límite a la duración de las conversaciones con el chatbot de Bing. Fue como aprender de un piloto de pruebas que ir demasiado rápido durante demasiado tiempo quemará su motor. El socio de Microsoft, OpenAI, y Google también están explorando formas de controlar el comportamiento de sus bots.

Pero hay una advertencia para esa tranquilidad: debido a que los chatbots aprenden de tanto material y lo ensamblan de una manera tan compleja, los investigadores no tienen del todo claro cómo los chatbots producen sus resultados finales. Los investigadores observan lo que hacen los bots y aprenden a poner límites a ese comportamiento, a menudo después de que sucede.

Microsoft y OpenAI han decidido que la única forma en que pueden descubrir qué harán los chatbots en el mundo real es dejarlos sueltos y darles cuerda cuando se desvíen. Creen que su gran experimento público vale la pena el riesgo.

El Dr. Sejnowski comparó el comportamiento del chatbot de Microsoft con el Espejo de Oesed, un artefacto místico en las novelas de J. K. Rowling por Harry Potter y las muchas películas basadas en su inventivo mundo de jóvenes magos.

“Eised” es “deseo” escrito al revés. Cuando la gente descubre el espejo, parece dar verdad y comprensión. Pero no funciona. Muestra los deseos profundamente arraigados de cualquiera que lo mire. Y algunas personas se vuelven locas si miran demasiado tiempo.

“Debido a que el ser humano y los LLM se reflejan entre sí, con el tiempo tenderán hacia un estado conceptual común”, dijo el Dr. Sejnowski.

No es sorprendente, dijo, que los periodistas comenzaran a ver un comportamiento siniestro en el chatbot de Bing. A sabiendas o no, estaban empujando el sistema en una dirección incómoda. A medida que los chatbots toman nuestras palabras y nos las reflejan, pueden reforzar y expandir nuestras creencias y obligarnos a creer lo que nos dicen.

El Dr. Sejnowski formaba parte de un pequeño grupo de investigadores a fines de la década de 1970 y principios de la de 1980 que comenzaron a explorar seriamente un tipo de inteligencia artificial llamada red neuronal que impulsa a los chatbots de hoy.

Una red neuronal es un sistema matemático que aprende habilidades mediante el análisis de datos digitales. Es la misma tecnología que permite que Siri y Alexa reconozcan lo que estás diciendo.

Alrededor de 2018, investigadores de compañías como Google y OpenAI comenzaron a construir redes neuronales que aprendieron de grandes cantidades de texto digital, incluidos libros, artículos de Wikipedia, registros de chat y otras cosas publicadas en Internet. Al determinar miles de millones de patrones a lo largo de este texto, estos LLM aprendieron a generar texto por sí mismos, incluidos tweets, publicaciones de blog, discursos y programas de computadora. Incluso podrían mantener una conversación.

Estos sistemas son un reflejo de la humanidad. Aprenden sus habilidades analizando el texto que las personas han publicado en Internet.

Pero esa no es la única razón por la que los chatbots generan lenguaje problemático, dijo Melanie Mitchell, investigadora de inteligencia artificial en el Instituto Santa Fe, un laboratorio independiente en Nuevo México.

Al generar texto, estos sistemas no repiten palabra por palabra lo que hay en Internet. Producen texto nuevo por su cuenta mediante la combinación de miles de millones de patrones.

Incluso si los investigadores entrenaran estos sistemas únicamente en la literatura científica revisada por pares, aún podrían hacer afirmaciones que son científicamente ridículas. Incluso si solo han aprendido de un texto que es verdadero, todavía pueden producir falsedades. Incluso si solo han aprendido de un texto que es útil, aún pueden generar algo espeluznante.

“No hay nada que les impida hacer eso”, dijo el Dr. Mitchell. “Simplemente están tratando de producir algo que suene como el lenguaje humano”.

Los expertos en inteligencia artificial saben desde hace tiempo que esta tecnología exhibe todo tipo de comportamientos inesperados. Pero no siempre pueden ponerse de acuerdo sobre cómo se debe interpretar este comportamiento o qué tan rápido mejorarán los chatbots.

Debido a que estos sistemas aprenden de muchos más datos de los que los humanos podríamos imaginar, incluso los expertos en inteligencia artificial no pueden entender por qué están generando un texto en particular en un momento dado.

El Dr. Seikowski dijo que cree que, a largo plazo, los nuevos chatbots tienen el poder de hacer que las personas sean más eficientes y brindarles formas de hacer su trabajo mejor y más rápido. Pero eso viene con una advertencia tanto para las empresas que construyen estos chatbots como para las personas que los usan: también pueden alejarnos de la verdad y llevarnos a lugares oscuros.

“Es terra incógnita”, dijo el Dr. Seikowski. “La gente nunca ha experimentado esto antes”.