¿Qué hace que los chatbots "alucinen" o digan algo incorrecto? - كورة برس

¿Qué hace que los chatbots “alucinen” o digan algo incorrecto?

جوجل بلس

En el boletín de AI de hoy, el tercero de una serie de cinco partesDiscuto algunas de las formas en que los chatbots pueden fallar.

Horas después de la publicación del boletín de ayer, un grupo de expertos en inteligencia artificial y líderes tecnológicos, incluido Elon Musk, pidieron a los laboratorios de inteligencia artificial que suspendieran el trabajo en sus sistemas más avanzados, advirtiendo que representan “enormes riesgos para la sociedad y la humanidad”.

El grupo pidió una pausa de seis meses en los sistemas más potentes que GPT-4, presentado este mes por OpenAI, que Musk cofundó. La pausa dará tiempo para implementar “protocolos de seguridad compartidos”, dijo el grupo en una carta abierta. “Si tal pausa no puede implementarse rápidamente, los gobiernos deben intervenir e imponer una moratoria”.

Muchos expertos no están de acuerdo con la gravedad de los riesgos citados en la carta, y exploraremos algunos de ellos más adelante esta semana. Pero ya ha habido una serie de percances de IA. Pasaré el boletín de hoy explicando cómo suceden.

A principios de febrero, Google presentó un nuevo chatbot, Bard, que respondía preguntas sobre el telescopio espacial James Webb. Solo había un problema: una de las afirmaciones del bot, que el telescopio había tomado las primeras imágenes de un planeta fuera de nuestro sistema solar, era completamente falsa.

Los bots como Bard y ChatGPT de OpenAI brindan información con una destreza desconcertante. Pero también dicen mentiras creíbles o hacen cosas realmente espeluznantes, como insistir en que están enamorados de los periodistas del New York Times.

¿Como es posible?

En el pasado, las empresas de tecnología definían cuidadosamente cómo debería comportarse el software, una línea de código a la vez. Ahora están diseñando chatbots y otras tecnologías que aprenden habilidades por sí mismos al determinar patrones estadísticos en grandes cantidades de información.

Gran parte de estos datos provienen de sitios como Wikipedia y Reddit. Internet está repleto de información útil, desde hechos históricos hasta consejos médicos. Pero también está lleno de falsedades, discursos de odio y otra basura. Los chatbots están absorbiendo todo, incluidos lo manifiesto y lo implícito inclinación del texto que están aprendiendo.

Y debido a la forma sorprendente en que mezclan y combinan lo que han aprendido para generar un texto completamente nuevo, a menudo crean un lenguaje convincente que es completamente incorrecto o no existe en sus datos de entrenamiento. Los investigadores de IA llaman a esta tendencia a inventar cosas “alucinación”, que pueden incluir respuestas irrelevantes, sin sentido o objetivamente incorrectas.

Ya estamos viendo las consecuencias en el mundo real de las alucinaciones de la IA. Stack Overflow, un sitio de preguntas y respuestas para desarrolladores, prohibió temporalmente a los usuarios enviar respuestas generadas con ChatGPT porque el chatbot facilitaba demasiado el envío de respuestas plausibles pero incorrectas.

“Estos sistemas viven en un mundo de lenguaje”, dijo Melanie Mitchell, investigadora de IA en el Instituto Santa Fe. “Este mundo les da algunas pistas sobre lo que es verdad y lo que no es verdad, pero el lenguaje del que aprenden no se basa en la realidad. No necesariamente saben si lo que generan es verdadero o falso.

(Cuando le preguntamos a Bing por ejemplos de alucinaciones de chatbot, en realidad alucinó la respuesta).

Piense en los chatbots como músicos de jazz. Pueden digerir una gran cantidad de información, como, por ejemplo, cada canción que se haya escrito, y luego criticar los resultados. Tienen la capacidad de combinar ideas de manera sorprendente y creativa. Pero también tocan las notas equivocadas con absoluta convicción.

A veces, la tarjeta de reemplazo no es el software. Estas son las personas.

Tendemos a ver patrones que en realidad no existen y asumimos rasgos y emociones humanas en seres no humanos. Esto se conoce como antropomorfismo. Cuando un perro hace contacto visual con nosotros, tendemos a asumir que es más inteligente de lo que realmente es. Así es como funcionan nuestras mentes.

Y cuando la computadora comienza a juntar palabras como nosotros, nos quedamos con la falsa impresión de que puede razonar, comprender y expresar emociones. También podemos comportarnos de manera impredecible. (El año pasado, Google puso a un ingeniero en licencia paga después de rechazar su afirmación de que su IA era inteligente. Más tarde fue despedido).

Cuanto más larga sea la conversación, más influencia tendrá en lo que dice un patrón de lenguaje grande. La infame conversación de Kevin con Bing es un ejemplo particularmente bueno. Después de un tiempo, el chatbot puede comenzar a reflejar sus pensamientos y objetivos, según investigadores como el pionero de la IA, Terry Seinowski. Si le pides que se vuelva espeluznante, se vuelve espeluznante.

Comparó la tecnología con el Espejo de Oesed, un artefacto místico en las novelas y películas de Harry Potter. “Proporciona todo lo que está buscando, lo que quiera, espere o desee”, dijo el Dr. Seinowski. “Como el ser humano y los LLM se reflejan mutuamente, con el tiempo tenderán hacia un estado conceptual común”.

Empresas como Google, Microsoft y OpenAI están trabajando para resolver estos problemas.

OpenAI está trabajando para mejorar el chatbot utilizando los comentarios de los evaluadores humanos. Usando una técnica llamada aprendizaje de refuerzo, el sistema obtuvo una mejor comprensión de lo que debería y no debería hacer.

Microsoft, por su parte, ha limitado la duración de las conversaciones con su chatbot Bing. También corrige las vulnerabilidades que han identificado los usuarios intrépidos. Pero arreglar cada contratiempo es difícil, si no imposible.

Así que sí, si eres inteligente, probablemente puedas hacer que estos sistemas hagan cosas que son ofensivas o espeluznantes. Los malos actores también pueden hacerlo: a muchos expertos les preocupa que estos bots permitan que los estafadores de Internet, los comerciantes sin escrúpulos y los estados nacionales hostiles difundan información falsa y causen otros tipos de problemas.

Mientras usa estos chatbots, permanezca escéptico. Véalos por lo que realmente son.

No son sintientes ni conscientes. Son inteligentes en algunos aspectos, pero estúpidos en otros. Recuerda que pueden estropear las cosas. Recuerde, pueden inventar cosas.

Pero en el lado positivo, hay muchas otras cosas para las que estos sistemas son muy buenos. Kevin dirá más sobre eso mañana.

Pídele a ChatGPT o Bing que te explique algo de lo que ya sabes mucho. ¿Son correctas las respuestas?

Si obtienes respuestas interesantes, correctas o incorrectas, puedes compartirlas en los comentarios.


Pregunta 1 de 3

Comience el cuestionario eligiendo su respuesta.


Alucinaciones: Un fenómeno bien conocido en los grandes modelos de lenguaje donde un sistema proporciona una respuesta que es objetivamente incorrecta, irrelevante o sin sentido debido a limitaciones en sus datos de entrenamiento y arquitectura.

Adicciones: Un tipo de error que puede ocurrir en un modelo de lenguaje grande si su salida está sesgada por los datos de entrenamiento del modelo. Por ejemplo, un modelo puede asociar rasgos u ocupaciones específicas con una raza o género en particular, lo que genera predicciones inexactas y respuestas ofensivas.

Antropomorfismo: La tendencia de las personas a atribuir cualidades o características humanas a un chatbot de IA. Por ejemplo, puede suponer que es amable o cruel en función de sus respuestas, a pesar de que es incapaz de mostrar emociones, o puede creer que una IA es inteligente porque es muy buena para imitar el lenguaje humano.

Haga clic aquí para ver más términos en el glosario.