Microsoft lanzó una nueva versión de su motor de búsqueda Bing la semana pasada y, a diferencia de un motor de búsqueda normal, incluye un chatbot que puede responder preguntas en una prosa clara y concisa.
Desde entonces, la gente ha notado que parte de lo que genera el chatbot de Bing es inexacto, engañoso y francamente extraño, lo que genera temores de que se haya vuelto sensible o consciente del mundo que lo rodea.
Esto no es así. Y para entender por qué es importante saber cómo funcionan realmente los chatbots.
¿Está vivo el chatbot?
No. Digámoslo de nuevo: ¡No!
En junio, el ingeniero de Google, Blake Lemoine, dijo que la tecnología de chatbot similar que se estaba probando en Google era razonable. esto es falso Los chatbots no son conscientes y no son inteligentes, al menos no en la forma en que los humanos son inteligentes.
¿Por qué entonces parece vivo?
Demos un paso atrás. El chatbot de Bing funciona con un tipo de inteligencia artificial llamada red neuronal. Esto puede sonar como un cerebro computarizado, pero el término es engañoso.
Una red neuronal es simplemente un sistema matemático que aprende habilidades mediante el análisis de una gran cantidad de datos digitales. Como una red neuronal examina miles de imágenes de gatos, por ejemplo, puede aprender a reconocer un gato.
La mayoría de la gente usa redes neuronales todos los días. Esta es la tecnología que identifica personas, mascotas y otros objetos en imágenes publicadas en servicios de Internet como Google Photos. Permite que Siri y Alexa, los asistentes de voz parlantes de Apple y Amazon, reconozcan las palabras que dices. Y eso es lo que se traduce entre inglés y español en servicios como Google Translate.
Las redes neuronales son muy buenas para imitar la forma en que las personas usan el lenguaje. Y esto puede hacernos pensar que la tecnología es más poderosa de lo que realmente es.
¿Cómo imitan exactamente las redes neuronales el lenguaje humano?
Hace unos cinco años, investigadores de empresas como Google y OpenAI, una startup de San Francisco que recientemente lanzó el popular chatbot ChatGPT, comenzaron a construir redes neuronales que aprendían de grandes cantidades de texto digital, incluidos libros, artículos de Wikipedia, registros de chat y todo lo demás. varias otras cosas publicadas en Internet.
Estas redes neuronales se conocen como grandes modelos de lenguaje. Pueden usar estos montones de datos para construir lo que podría llamarse un mapa matemático del lenguaje humano. Usando este mapa, las redes neuronales pueden realizar muchas tareas diferentes, como escribir sus propios tweets, componer discursos, generar programas de computadora y, sí, tener una conversación.
Estos grandes patrones de lenguaje han demostrado ser útiles. Microsoft ofrece una herramienta, Copilot, que se basa en un gran modelo de lenguaje y puede sugerir la siguiente línea de código a medida que los programadores de computadoras crean aplicaciones de software, de la misma manera que las herramientas de autocompletar sugieren la siguiente palabra cuando escribes textos o correos electrónicos.
Otras empresas ofrecen tecnología similar que puede generar materiales de marketing, correos electrónicos y otros textos. Este tipo de tecnología también se conoce como IA generativa.
¿Las empresas ahora están lanzando versiones de esto con las que puede hablar?
Exactamente. En noviembre, OpenAI lanzó ChatGPT, la primera vez que el público en general lo probó. La gente estaba asombrada, y con razón.
Estos chatbots no chatean exactamente como los humanos, pero a menudo parece que lo hacen. También pueden escribir ensayos y poesía y escribir sobre casi cualquier tema que se les presente.
¿Por qué las cosas van mal?
Porque aprenden de internet. Piensa en cuánta información errónea y otra basura hay en la web.
Estos sistemas tampoco repiten lo que está en Internet palabra por palabra. Según lo que han aprendido, producen un nuevo texto por sí mismos, en lo que los investigadores de IA llaman una “alucinación”.
Es por eso que los chatbots pueden darte respuestas diferentes si haces la misma pregunta dos veces. Dirán cualquier cosa, ya sea que se base en la realidad o no.
Si los chatbots “alucinan”, ¿eso no los hace conscientes?
A los investigadores de IA les gusta usar términos que hacen que estos sistemas parezcan humanos. Pero alucinar es solo un término pegadizo para “están inventando cosas”.
Eso suena espeluznante y peligroso, pero no significa que la tecnología esté de alguna manera viva o consciente de su entorno. Simplemente generó texto usando patrones que encontró en Internet. En muchos casos, mezcla y combina patrones de formas sorprendentes y desconcertantes. Pero no se da cuenta de lo que está haciendo. No puede razonar como los humanos.
¿No pueden las empresas evitar que los chatbots se comporten de forma extraña?
Están tratando.
Con ChatGPT, OpenAI intentó controlar el comportamiento de la tecnología. Cuando un pequeño grupo de personas probó el sistema de forma privada, OpenAI les pidió que calificaran sus respuestas. ¿Fueron útiles? ¿Eran verdad? OpenAI luego usa estas evaluaciones para refinar el sistema y determinar con más cuidado lo que haría y lo que no haría.
Pero tales técnicas no son perfectas. Los científicos de hoy no saben cómo construir sistemas que sean completamente correctos. Pueden limitar imprecisiones y rarezas, pero no pueden detenerlas. Una forma de frenar el comportamiento extraño es mantener los chats cortos.
Pero los chatbots seguirán arrojando cosas que no son ciertas. Y a medida que otras empresas comiencen a implementar este tipo de bots, no todos serán buenos para controlar lo que pueden y no pueden hacer.
El resultado final: no creas todo lo que te dice un chatbot.