¿Puede una máquina saber que sabemos lo que sabe? - كورة برس

¿Puede una máquina saber que sabemos lo que sabe?

جوجل بلس

Leer la mente es común entre nosotros los humanos. No de la forma en que los psíquicos afirman hacerlo, accediendo a las cálidas corrientes de conciencia que llenan las experiencias de cada individuo, o de la forma en que los mentalistas afirman hacerlo, arrancando un pensamiento de tu cabeza a voluntad. Leer la mente todos los días es más sutil: observamos los rostros y los movimientos de las personas, escuchamos sus palabras y luego decidimos o intuimos lo que podría estar pasando en sus cabezas.

Entre los psicólogos, esta psicología intuitiva —la capacidad de atribuir estados mentales distintos a los nuestros a los demás— se denomina teoría de la mente, y su ausencia o deterioro se asocia con el autismo, la esquizofrenia y otros trastornos del desarrollo. La teoría de la mente nos ayuda a comunicarnos y entendernos; nos permite disfrutar de la literatura y las películas, jugar juegos y dar sentido a nuestro entorno social. En muchos sentidos, la capacidad es una parte esencial del ser humano.

¿Y si una máquina también pudiera leer la mente?

Recientemente, Michal Kosinski, psicólogo de la Stanford Graduate School of Business, planteó este argumento: que los grandes modelos de lenguaje como ChatGPT de OpenAI y GPT-4 de OpenAI (máquinas de predicción de la siguiente palabra entrenadas en grandes cantidades de texto de Internet) han desarrollado una teoría de la mente. Sus estudios no han sido revisados ​​por pares, pero han provocado un escrutinio minucioso y una conversación entre los científicos cognitivos que intentan responder la pregunta más frecuente en estos días: Can ChatGPT este? – y trasladarlo al ámbito de un estudio científico más sólido. ¿Qué capacidad tienen estos modelos y cómo pueden cambiar nuestra comprensión de nuestras propias mentes?

“Los psicólogos no harían ninguna afirmación sobre las habilidades de los niños pequeños basándose únicamente en anécdotas sobre sus interacciones con ellos, lo que parece ser el caso de ChatGPT”, dijo Alison Gopnik, psicóloga de la Universidad de California, Berkeley y una de las primeras investigadores a mirar la teoría sobre la mente en la década de 1980. “Tienes que hacer algunas pruebas bastante cuidadosas y rigurosas”.

Investigaciones anteriores del Dr. Kosinski mostraron que las redes neuronales entrenadas para analizar rasgos faciales como la forma de la nariz, el ángulo de la cabeza y la expresión emocional podían predecir las opiniones políticas y la orientación sexual de las personas con un sorprendente grado de precisión (alrededor del 72 por ciento en el primer caso y 80 por ciento en el segundo caso). Su trabajo reciente sobre grandes patrones de lenguaje utiliza pruebas clásicas de la teoría de la mente que miden la capacidad de los niños para atribuir creencias falsas a otras personas.

Un ejemplo famoso es la prueba de Sally-Ann, en la que una niña, Ann, mueve una pelota de una canasta a una caja cuando otra niña, Sally, no está mirando. Para saber dónde buscará Sally la canica, argumentan los investigadores, el espectador debe ejercitar una teoría de la mente, razonando sobre la percepción de Sally y la formación de creencias: Sally no vio a Ann mover la canica a la caja, por lo que todavía cree que es el lugar donde lo dejó por última vez, en la canasta.

El Dr. Kosinski presentó 10 patrones de lenguaje principales con 40 variaciones únicas en estas pruebas de teorías de la mente: descripciones de situaciones como la prueba de Sally-Ann en la que una persona (Sally) forma una creencia falsa. Luego hizo preguntas a los modelos sobre estas situaciones, incitándolos a ver si atribuirían creencias falsas a los personajes involucrados y predecirían con precisión su comportamiento. Encontró que GPT-3.5, lanzado en noviembre de 2022, lo hizo el 90 por ciento de las veces, y GPT-4, lanzado en marzo de 2023, lo hizo el 95 por ciento de las veces.

¿La conclusión? Las máquinas tienen una teoría de la mente.

Pero poco después de que se publicaran esos resultados, Tomer Ullmann, psicólogo de la Universidad de Harvard, respondió con una serie de experimentos propios, demostrando que pequeños ajustes en las indicaciones pueden cambiar por completo las respuestas generadas incluso por los patrones lingüísticos grandes más complejos. Si un contenedor se describiera como transparente, las máquinas no podrían inferir que alguien podría verlo. Las máquinas tenían dificultades para tener en cuenta la intervención humana en estas situaciones y, a veces, no podían diferenciar entre un objeto que estaba dentro de un contenedor y uno que estaba encima.

Maarten Sapp, científico informático de la Universidad Carnegie Mellon, realizó más de 1000 pruebas de teoría de la mente en grandes modelos de lenguaje y descubrió que los transformadores más avanzados, como ChatGPT y GPT-4, pasaron solo alrededor del 70 por ciento de las veces. (En otras palabras, tuvieron un 70 por ciento de éxito al atribuir creencias falsas a las personas descritas en las situaciones de prueba). La discrepancia entre sus datos y los del Dr. Kosinski puede deberse a diferencias en la prueba, pero el Dr. Sapp dijo que incluso pasar El 95 por ciento de las veces no sería evidencia de una verdadera teoría de la mente. Las máquinas suelen fallar de forma pautada, incapaces de participar en un razonamiento abstracto y, a menudo, hacen “correlaciones falsas”, dijo.

El Dr. Ullman señaló que los investigadores de aprendizaje automático han luchado durante las últimas décadas para capturar la flexibilidad del conocimiento humano en modelos informáticos. Esa dificultad es un “descubrimiento en la sombra”, dijo, que se encuentra detrás de cada innovación emocionante. Los investigadores han demostrado que los modelos de lenguaje a menudo dan respuestas incorrectas o irrelevantes cuando se cargan con información innecesaria antes de hacer una pregunta; algunos chatbots estaban tan desanimados por discusiones hipotéticas sobre pájaros parlantes que terminaron afirmando que los pájaros podían hablar. Debido a que su razonamiento es sensible a pequeños cambios en sus entradas, los científicos han llamado “frágil” la cognición de estas máquinas.

El Dr. Gopnik comparó la teoría de la mente de los grandes modelos lingüísticos con su propia comprensión de la relatividad general. “He leído lo suficiente para saber cuáles son las palabras”, dijo. “Pero si me pides que haga una nueva predicción o que diga lo que la teoría de Einstein nos dice sobre un nuevo fenómeno, me quedaré perpleja porque realmente no tengo la teoría en la cabeza”. la teoría de la mente se trata de otros mecanismos razonables de razonamiento; se mantiene firme frente al escrutinio.

En general, el trabajo del Dr. Kosinski y las respuestas al mismo encajan en el debate sobre si la capacidad de estas máquinas se puede comparar con la de los humanos, un debate que divide a los investigadores que trabajan en el procesamiento del lenguaje natural. ¿Son estas máquinas loros estocásticos, inteligencia extraterrestre o fraudes? Una encuesta de 2022 del campo encontró que de los 480 investigadores que respondieron, el 51 por ciento creía que los modelos de lenguaje grandes eventualmente podrían “comprender el lenguaje natural en algún sentido no trivial” y el 49 por ciento creía que no podían.

El Dr. Ullman no descarta la posibilidad de una comprensión mecánica o una teoría mecánica de la mente, pero desconfía de atribuir habilidades humanas a cosas no humanas. Señaló un famoso estudio de 1944 realizado por Fritz Heider y Marian Simmel en el que a los participantes se les mostró una caricatura de dos triángulos y un círculo interactuando. Cuando se les pidió a los sujetos que escribieran lo que sucedió en la película, casi todos describieron las formas como personas.

“Enamorado del mundo bidimensional, sin duda; pequeño triángulo número dos y un lindo círculo”, escribió un participante. “Triangle One (en lo sucesivo, el villano) espía al amor joven. ¡Ah!”

Es natural ya menudo socialmente requerido explicar el comportamiento humano hablando de creencias, deseos, intenciones y pensamientos. Esta tendencia es central para lo que somos, tan central que a veces tratamos de leer la mente de cosas que no tienen mente, al menos no mentes como las nuestras.