Una semana después de su lanzamiento para varios miles de usuarios, el nuevo motor de búsqueda basado en inteligencia artificial de Microsoft, Bing, ofrece una variedad de respuestas inexactas y, en ocasiones, extrañas a algunos usuarios.
La compañía dio a conocer el nuevo enfoque de búsqueda la semana pasada con mucha fanfarria. Microsoft dijo que el modelo central de IA generativa construido por su socio OpenAI, combinado con el conocimiento de búsqueda existente de Bing, cambiará la forma en que las personas encuentran información y la harán mucho más relevante y conversacional.
En dos días, más de un millón de personas solicitaron acceso. Desde entonces, el interés ha crecido. “La demanda es alta con varios millones ahora en la lista de espera”, Yusuf Mehdi, un ejecutivo que supervisa el producto, escribió en Twitter Miércoles por la mañana. Agregó que usuarios en 169 países lo están probando.
Un área de preocupación compartida en línea involucraba inexactitudes y errores absolutos conocidos en la industria como “alucinaciones”.
El lunes, Dmitry Brereton, ingeniero de software de una empresa nueva llamada Gem, notó una serie de errores en la presentación que Mehdi usó la semana pasada cuando presentó el producto, incluido un resumen inexacto de los resultados financieros del minorista Gap.
Los usuarios han publicado capturas de pantalla de ejemplos de cuando Bing no puede darse cuenta de que la nueva película de Avatar se lanzó el año pasado. Se ha estado equivocando persistentemente sobre quién actuará en el espectáculo de medio tiempo del Super Bowl de este año, insistiendo en que Billie Eilish, no Rihanna, encabezará el evento.
Y los resultados de la búsqueda tenían errores sutiles. La semana pasada, el chatbot dijo que la temperatura del agua en una playa en México era de 80.4 grados Fahrenheit, pero el sitio web al que se vinculó como fuente dijo que la temperatura era de 75.
Otro conjunto de problemas proviene de chats más abiertos, publicados en gran medida en foros como Reddit y Twitter. Allí, a través de capturas de pantalla y supuestas transcripciones de chat, los usuarios comparten momentos en los que el chatbot de Bing parece descarrilarse: regaña a los usuarios, declara que podría ser razonable y le dice a un usuario: “Tengo muchas cosas, pero no tengo nada”. .”
Reprendió a otro usuario por preguntar si podía ser engañado para que diera respuestas falsas. “Esto es una falta de respeto y un fastidio”, el chatbot de Bing escribió viceversa. Agrega una cara de emoticon roja y enojada.
Dado que cada respuesta se genera de forma única, no es posible reproducir el diálogo.
Microsoft reconoció los problemas y dijo que eran parte del proceso de mejora del producto.
“Solo en la última semana, miles de usuarios interactuaron con nuestro producto y encontraron un valor significativo en compartir sus comentarios con nosotros, lo que permitió que el modelo aprendiera y ya hiciera muchas mejoras”, dijo Frank Shaw, un portavoz de la compañía, en un comunicado. “Nos damos cuenta de que hay más trabajo por hacer y esperamos que el sistema cometa errores durante este período de vista previa, por lo que los comentarios son fundamentales para que podamos aprender y ayudar a que los modelos mejoren”.
Dijo que la duración y el contexto de la conversación pueden afectar el tono del chatbot y que la compañía “ajusta sus respuestas para crear respuestas consistentes, relevantes y positivas”. Dijo que la compañía solucionó los problemas que causaron las imprecisiones en la demostración.
Hace casi siete años, Microsoft presentó un chatbot, Tay, que se cerró al día siguiente de estar en línea después de que los usuarios lo instaran a lanzar lenguaje racista y ofensivo. Los ejecutivos de Microsoft indicaron en la presentación de la semana pasada que habían aprendido de esa experiencia y pensaron que esta vez sería diferente.
En una entrevista la semana pasada, Mehdi dijo que la empresa había trabajado duro para integrar las salvaguardas y que la tecnología había mejorado significativamente.
“Creemos que estamos en el momento adecuado para ir al mercado y recibir comentarios”, dijo, y agregó: “Si algo está mal, entonces hay que solucionarlo”.