La IA está mejorando en la lectura de la mente - كورة برس

La IA está mejorando en la lectura de la mente

جوجل بلس

Piensa en las palabras que pasan por tu cabeza: esa broma de mal gusto que sabiamente guardaste para ti durante la cena; tu impresión tácita de la nueva pareja de tu mejor amigo. Ahora imagina que alguien podría estar escuchando.

El lunes, científicos de la Universidad de Texas en Austin dieron otro paso en esa dirección. En un estudio publicado en la revista Nature Neuroscience, los investigadores describen una IA que puede traducir los pensamientos personales de las personas mediante el análisis de resonancias magnéticas funcionales que miden el flujo sanguíneo en diferentes áreas del cerebro.

Los investigadores ya han desarrollado métodos de decodificación del lenguaje para capturar la experiencia del habla de las personas que han perdido la capacidad de hablar y permitir que las personas paralizadas escriban mientras simplemente piensan en escribir. Pero el nuevo decodificador de lenguaje es uno de los primeros en no depender de implantes. En el estudio, pudo convertir el habla imaginaria de una persona en habla real y, cuando a los sujetos se les mostraron películas mudas, pudo generar descripciones relativamente precisas de lo que estaba sucediendo en la pantalla.

“No es solo un estímulo del lenguaje”, dijo Alexander Huth, neurocientífico de la universidad que ayudó a dirigir el estudio. “Captamos el significado, algo en la idea de lo que está pasando. Y el hecho de que esto sea posible es muy emocionante.

El estudio se centró en tres participantes que acudieron al laboratorio del Dr. Hutt durante 16 horas durante varios días para escuchar “The Moth” y otros podcasts narrativos. Mientras escuchaban, un escáner fMRI registró los niveles de oxigenación de la sangre en partes de sus cerebros. Luego, los investigadores usaron un modelo de lenguaje grande para hacer coincidir los patrones en la actividad cerebral con las palabras y frases que escucharon los participantes.

Los grandes modelos de lenguaje como GPT-4 de OpenAI y Bard de Google están entrenados en cantidades masivas de escritura para predecir la siguiente palabra en una oración o frase. En el proceso, los modelos crean mapas que muestran cómo las palabras se relacionan entre sí. Hace algunos años, el Dr. Hutt notó que ciertas partes de estos mapas, las llamadas incrustaciones contextuales, que capturan las características semánticas o los significados de las frases, podrían usarse para predecir cómo se enciende el cerebro en respuesta al lenguaje.

En un sentido básico, dijo Shinji Nishimoto, neurocientífico de la Universidad de Osaka que no participó en la investigación, “la actividad cerebral es una especie de señal cifrada y los patrones del lenguaje proporcionan formas de descifrarla”.

En su estudio, el Dr. Hutt y sus colegas revirtieron efectivamente el proceso, utilizando otra inteligencia artificial para traducir las imágenes de IRMf del participante en palabras y frases. Los investigadores probaron el decodificador haciendo que los participantes escucharan nuevas grabaciones y luego vieran en qué medida la traducción coincidía con la transcripción real.

Casi todas las palabras estaban fuera de lugar en la escritura decodificada, pero el significado del pasaje se conservó con regularidad. En esencia, los decodificadores parafrasean.

Transcripción original: “Me levanté del colchón de aire y presioné mi rostro contra el vidrio de la ventana del dormitorio, esperando ver ojos mirándome fijamente, pero en cambio solo encontré oscuridad”.

Decodificado por la actividad cerebral: “Simplemente seguí caminando hacia la ventana y abrí el vidrio y me puse de puntillas y miré hacia afuera, no vi nada y volví a mirar hacia arriba, no vi nada”.

Mientras estaban bajo la resonancia magnética funcional, también se les pidió a los participantes que imaginaran en silencio que estaban contando una historia; luego repitieron la historia en voz alta, como referencia. Y aquí el modelo de decodificación capturó la esencia de la versión tácita.

La versión del participante: “Busque un mensaje de mi esposa que ha cambiado de opinión y va a volver”.

Versión decodificada:: “Al verla por alguna razón pensé que vendría a mí y me diría que me extraña”.

Finalmente, los sujetos vieron una caricatura corta y silenciosa, nuevamente mientras se sometían a una resonancia magnética funcional. Al analizar su actividad cerebral, el modelo de lenguaje puede decodificar un resumen aproximado de lo que están mirando, tal vez su descripción interna de lo que están mirando.

El resultado sugiere que el decodificador AI ha capturado no solo palabras sino también significado. “La percepción del lenguaje es un proceso impulsado externamente, mientras que la imaginación es un proceso interno activo”, dijo el Dr. Nishimoto. “Y los autores demostraron que el cerebro usa representaciones comunes en estos procesos”.

Greta Takut, neurocientífica del Instituto Tecnológico de Massachusetts que no participó en la investigación, dijo que esa era la “pregunta de alto nivel”.

“¿Podemos decodificar el significado del cerebro?”, continuó. “En cierto modo, demuestran que sí se puede”.

Este método de decodificación del lenguaje tiene limitaciones, señalan el Dr. Hutt y sus colegas. Por un lado, los escáneres fMRI son voluminosos y costosos. Además, el entrenamiento del modelo es un proceso largo y tedioso y, para que sea efectivo, debe realizarse en individuos. Cuando los investigadores intentaron usar un decodificador entrenado en una persona para leer la actividad cerebral de otra, falló, lo que sugiere que cada cerebro tiene formas únicas de representar el significado.

Los participantes también pudieron proteger sus monólogos internos descartando el decodificador mientras pensaban en otras cosas. La IA puede leer nuestras mentes, pero por ahora tendrá que leerlas una por una y con nuestro permiso.