Su lanzamiento, a pesar de las posibles imperfecciones, fue un ejemplo crítico del “ritmo frenético” de Microsoft para incorporar la IA generativa en sus productos, dijo. Los ejecutivos en una conferencia de prensa en el campus de Microsoft en Redmond, Washington, dijeron repetidamente que era hora de sacar la herramienta del “laboratorio” y ponerla en manos del público.
“Siento especialmente en Occidente que hay mucho más de ‘Dios mío, ¿qué va a pasar debido a esta IA?'”, dijo Nadella. “Y es mejor decir realmente: ‘Oye, mira, ¿esto realmente te está ayudando o no?’
Oren Etzioni, profesor emérito de la Universidad de Washington y director ejecutivo del Instituto Allen para la IA, un destacado laboratorio de Seattle, dijo que Microsoft “ha asumido un riesgo calculado al tratar de controlar la tecnología tanto como se puede controlar”.
Agregó que muchos de los casos más preocupantes involucran llevar la tecnología más allá del comportamiento ordinario. “Puede ser muy sorprendente lo inteligente que es la gente para obtener respuestas inapropiadas de los chatbots”, dijo. Citando a los empleados de Microsoft, continuó: “No creo que hayan anticipado cuán malas serían algunas de las respuestas cuando el chatbot se le solicitó de esa manera”.
Para protegerse de los problemas, Microsoft solo ha dado acceso a unos pocos miles de usuarios al nuevo Bing, aunque dijo que planea expandirse a millones más para fin de mes. Para abordar las preocupaciones sobre la precisión, proporcionó hipervínculos y referencias en sus respuestas para que los usuarios pudieran verificar los resultados.
La precaución fue informada por la experiencia de la compañía hace casi siete años cuando presentó un chatbot llamado Tay. Los usuarios encontraron casi de inmediato formas de hacerlo escupir lenguaje racista, sexista y ofensivo. La compañía eliminó a Tay por un día, para nunca volver a publicarlo.
Gran parte de la capacitación para el nuevo chatbot se centró en defenderse de este tipo de respuestas dañinas o escenarios que desencadenan la violencia, como planificar un ataque a una escuela.