Microsoft lanzó una nueva versión de su motor de búsqueda Bing la semana pasada que, a diferencia de los motores de búsqueda actuales, incluye un chatbot que puede responder preguntas en una prosa clara y concisa.
Desde entonces, la gente ha notado que parte de lo que genera el chatbot de Bing es impreciso, engañoso y francamente raro, lo que genera temores de estar consciente o experimentar el mundo que lo rodea.
Pero ese no es el caso. Y, para entender por qué, es importante saber cómo funcionan los chatbots.
¿Está vivo el chatbot?
No. Que quede claro: ¡no!
Un joven ingeniero de Google, Blake Lemoine, confirmó que la tecnología de chatbot es similar para evaluar la conciencia de Google. eso es falso Los chatbots no son conscientes ni inteligentes… al menos no de la forma en que los humanos son inteligentes.
Entonces, ¿por qué parece vivo?
Retrocedamos un poco. El chatbot de Bing es operado por el tipo de neurona artificial inteligente de una llama roja. Eso podría sonar como un cerebro computarizado, pero el término es engañoso.
Una red neuronal es solo un sistema matemático que aprende habilidades para analizar grandes cantidades de datos digitales. A medida que una red neuronal examine, por ejemplo, miles de fotografías de gatos, puede aprender a reconocer a un gato.
La mayoría de la gente usa redes neuronales todos los días. Es la tecnología que identifica a personas, mascotas y otros objetos en imágenes publicadas en servicios de internet como Google Fotos. Les permite a Siri y Alexa, los asistentes de voz parlanchines de Apple y Amazon, reconocer las palabras que dicen. Además, es lo que traduce entre inglés y español en servicios como Traductor de Google.
Las redes neuronales son muy buenas para imitar la forma en que los humanos usamos el lenguaje y esto puede confundirnos hasta pensar que la tecnología es más poderosa de lo que realmente es.
¿Cómo imitan al lenguaje humano las redes neuronales, exactamente?
Hace unos cinco años, investigadores de empresas como Google y OpenAI, una empresa emergente con sede en San Francisco que recientemente lanzó el popular chatbot ChatGPT, comenzaron a crear redes neuronales que aprendían de enormes cantidades de texto digital, incluidos libros, artículos de Wikipedia, registros de chats y todo tipo de otras cosas publicadas en internet.
Estas redes neuronales son conocidas como grandes modelos de lenguaje. Son capaces de usar esos montones de datos para armar lo que podría llamar un mapa matemático de lenguaje humano. Al emplear este mapa, las redes neuronales pueden realizar muchos trabajos, como escribir sus propios tuits, redactar discursos, generar programas informaticos y, si, sostener una conversacion.
Estos grandes modelos de lenguaje han probado ser útiles. Microsoft ofrece una herramienta, Copilot, que está construida con un modelo de lenguaje grande y puede sugerir la siguiente línea de código cuando los programadores de computadoras crean aplicaciones de software, de una manera muy similar a cómo las herramientas de autocompletar sugieren la siguiente palabra cuando describen mensajes de texto o correos. electrónicos.
Otras empresas ofrecen tecnología similar que puede generar materiales de mercadotecnia, correo electrónico y otros textos. Este tipo de tecnología también se conoce como inteligencia generativa artificial.
¿Ahora las compañías están lanzando versiones de esto con las que puedes chatear?
Exactamente. En noviembre, OpenAI lanzó ChatGPT, la primera vez que el público en general podía probar esto. La gente se maravilló… y con justa razón.
Estos chatbots no chatean exactamente como un humano, pero a menudo parecen hacerlo. También pueden escribir trabajos finales, poesía y conversar sobre casi cualquier tema que se les presente.
¿Por qué se equivocan?
Porque aprenden de internet. Piensa sobre obtener información errónea y otra basura hay en la web.
Estos sistemas tampoco repiten lo que está en internet palabra por palabra. Con base en lo que han aprendido, producen texto nuevo por su cuenta, algo que los investigadores de inteligencia artificial llaman “alucinación”.
Es por esto que los chatbots pueden darte respuestas diferentes si haces la misma pregunta dos veces. Responden cualquier cosa, ya sea que esté basado en la realidad o no.
Si los chatbots son “alucinantes”, ¿eso no significa que tengan conciencia?
A los investigação de inteligencia artificial les encanta usar términos que hacen parecer humanos a estos sistemas. Sin embargo, alucinar solo es un termo pegajoso para “inventar cosas”.
Eso suena espeluznante y peligroso, pero no significa que la tecnología esté viva o consciente de sus alredores de ninguna forma. Solo está exponiendo texto utilizando patrones que entente en internet. En muchos casos, mezcla y combina patrones ce maneras sorprendentes y perturbadoras. No obstante, no está consciente de lo que está haciendo. No es capaz de razonar como lo hacen los humanos.
¿Las compañías no pueden evitar que los chatbots actúen de modo extraño?
Lo están intentando.
Con ChatGPT, la intención de la firma OpenAI es ser impulsada por el compromiso de la tecnología. Cuando un pequeño grupo de personas probó el sistema en privado, OpenAI les pidió que calificaran sus respuestas. ¿Fueron útiles? ¿Fueron Veraces? Entonces, OpenAI empleó estas calificaciones para perfeccionar el sistema y definir con mayor cuidado qué tendría y qué no tendría la tecnología.
No obstante, los cuentos técnicos no son perfectos. Los científicos en la actualidad no saben cómo construir sistemas que sean completamente veraces. Pueden limitar las imprecisiones y las respuestas raras, pero no pueden detenerlas. Una de las formas de frenar el comportamiento extraño es mantener los chats cortos.
No obstante, los chatbots seguirán diciendo cosas que no son ciertas. Además, mientras otras empresas comienzan a implementar estos tipos de bots, no todas serán buenas para controlar lo que estos pueden hacer y no pueden.
La conclusión: no cras todo lo que te diga un chatbot.
Cade Metz es reportero de tecnología y autor del libro Creadores geniales: los Mavericks que llevaron la IA a Google, Facebook y el mundo. Cubre inteligencia artificial, coches autónomos, robot, realidad virtual y áreas emergentes de drogas. @cademetz