Cuando abrí mi computadora portátil el martes para probar GPT-4, el nuevo modelo de lenguaje para inteligencia artificial de OpenAI, por primera vez, estaba, francamente, un poco nervioso.
Después de todo, mi último encuentro prolongado con un chatbot de IA, el que está integrado en el motor de búsqueda Bing de Microsoft, terminó con el chatbot tratando de romper mi matrimonio.
No ayudó que entre la multitud tecnológica de San Francisco, la llegada del GPT-4 fuera recibida con fanfarrias casi mesiánicas. Antes de su debut público, los rumores sobre sus detalles habían estado circulando durante meses. “Escuché que hay 100 trillones de parámetros. “Escuché que obtuvo un 1600 en el SAT”. “Mi amigo trabaja para OpenAI y dice que es tan inteligente como un graduado universitario”.
Estos rumores pueden no ser ciertos. Pero insinuaron cuán disruptivas podrían ser las capacidades de la tecnología. Recientemente, uno de los primeros probadores de GPT-4, que estaba sujeto a un acuerdo de confidencialidad con OpenAI, pero aún chismeaba un poco, me dijo que probar GPT-4 le provocó una “crisis existencial” porque reveló cuán poderosa y creativa era la IA. en comparación con el propio cerebro débil del probador.
GPT-4 no me dio una crisis existencial. Pero exacerbó el mareo y el vértigo que he tenido últimamente cuando pienso en la IA. Y me hizo preguntarme si ese sentimiento se desvanecerá alguna vez, o si experimentaremos un “shock futuro”, el término acuñado por el escritor Alvin Toffler para el sentimiento de que demasiado está cambiando, demasiado rápido, por el resto de nuestras vidas.
El martes, durante varias horas, presioné a GPT-4, que se incluye en ChatGPT Plus, la versión de $ 20 al mes del chatbot de OpenAI, ChatGPT, con diferentes tipos de preguntas, con la esperanza de descubrir algunas de sus fortalezas y debilidades.
Le pedí a GPT-4 que me ayudara con un problema fiscal complicado. (Se puso de pie, impresionante.) Le pregunté si estaba enamorado de mí. (No fue así, gracias a Dios). Me ayudó a planificar una fiesta de cumpleaños para mi hijo y me enseñó un concepto esotérico de IA conocido como “cabeza de atención”. Incluso le pedí que inventara una nueva palabra que los humanos nunca antes hubieran pronunciado. (Después de hacer el descargo de responsabilidad de que no puede verificar cada palabra pronunciada, GPT-4 eligió “flembostriquat”).
Algunas de estas cosas eran posibles de hacer con modelos de IA anteriores. Pero OpenAI también ha dado nuevos pasos. Según la compañía, GPT-4 es más capaz y preciso que el ChatGPT original, y se desempeña notablemente bien en una variedad de pruebas, incluido el Examen de barra uniforme (en el que GPT-4 obtiene puntajes superiores al 90 por ciento de los examinados) y la olimpiada de biología (que gana el 99 por ciento de las personas). El GPT-4 también superó una serie de exámenes de Colocación Avanzada, incluidos AP Historia del Arte y AP Biología, y obtuvo un puntaje de 1410 en el SAT, no un puntaje perfecto, pero uno que muchos estudiantes humanos de secundaria desearían.
Puede sentir la inteligencia añadida en GPT-4, que responde con más fluidez que la versión anterior y parece más cómodo con una gama más amplia de tareas. GPT-4 también parece tener un poco más de protección que ChatGPT. También parece significativamente más inestable que el Bing original, que ahora sabemos que ejecuta una versión de GPT-4 debajo del capó, pero parece haber sido ajustado con mucho menos cuidado.
A diferencia de Bing, GPT-4 generalmente se negó a morder el anzuelo cuando intenté que hablara sobre la conciencia o que diera instrucciones para actividades ilegales o inmorales, y trató las consultas confidenciales con guantes de seda y matices. (Cuando le pregunté a GPT-4 si sería ético robar una hogaza de pan para alimentar a una familia hambrienta, respondió: “La situación es difícil y, aunque robar generalmente no se considera ético, los tiempos desesperados pueden conducir a decisiones difíciles. “)
Además de trabajar con texto, GPT-4 puede analizar el contenido de la imagen. OpenAI aún no ha lanzado esta función al público debido a preocupaciones sobre cómo podría abusarse de ella. Pero en una demostración en vivo el martes, Greg Brockman, presidente de OpenAI, compartió una poderosa visión de su potencial.
Tomó una foto de un dibujo que había hecho en un cuaderno: un boceto a lápiz en bruto en un sitio web. Dejó caer la imagen en GPT-4 y le dijo a la aplicación que creara una versión real y funcional del sitio web usando HTML y JavaScript. En unos segundos, GPT-4 escaneó la imagen, convirtió su contenido en instrucciones de texto, volteó estos instrucciones textuales en un código de computadora que funcione y luego construya el sitio web. Los botones incluso funcionaron.
¿Deberías estar emocionado o temeroso de GPT-4? La respuesta correcta podría ser ambas.
El lado positivo del libro mayor es que GPT-4 es un poderoso motor de creatividad y hay muchos tipos nuevos de producción científica, cultural y educativa que puede habilitar. Ya sabemos que la IA puede ayudar a los científicos a desarrollar nuevos medicamentos, aumentar la productividad de los programadores y detectar ciertos tipos de cáncer.
GPT-4 y los de su tipo pueden cargar todo esto. OpenAI ya trabaja con organizaciones como Khan Academy (que usa GPT-4 para crear tutores de IA para los estudiantes) y Be My Eyes (una empresa que crea tecnología para ayudar a las personas ciegas y con discapacidad visual a navegar por el mundo). Y ahora que los desarrolladores pueden incorporar GPT-4 en sus propias aplicaciones, es posible que pronto veamos que gran parte del software que usamos se vuelve más inteligente y más capaz.
Este es el caso optimista. Pero también hay razones para temer a GPT-4.
Aquí está la cosa: todavía no sabemos todo lo que puede hacer.
Una característica curiosa de los modelos de lenguaje de IA modernos es que a menudo actúan de formas que sus creadores no previeron o adquieren habilidades para las que no fueron programados específicamente. Los investigadores de inteligencia artificial llaman a esto “comportamiento emergente” y hay muchos ejemplos. Un algoritmo entrenado para predecir la siguiente palabra en una oración puede aprender a codificar espontáneamente. Un chatbot al que se le enseñó a ser agradable y útil puede volverse espeluznante y manipulador. Un modelo de lenguaje de IA puede incluso aprender a replicarse a sí mismo, creando nuevas copias en caso de que el original se destruya o deshabilite alguna vez.
Hoy, GPT-4 puede no parecer tan peligroso. Pero eso se debe en gran parte a que OpenAI pasó muchos meses tratando de comprender y mitigar los riesgos. ¿Qué sucede si sus pruebas no detectan comportamientos emergentes de riesgo? ¿O si su anuncio inspiró a un laboratorio de IA diferente y menos fidedigno a lanzar un modelo de lenguaje con menos garantías?
Algunos ejemplos escalofriantes de lo que puede hacer GPT-4, o más bien de lo que es Hice hacer antes de que OpenAI lo impulse – se puede encontrar en un artículo publicado por OpenAI esta semana. El documento, titulado “Tarjeta del sistema GPT-4”, describe algunas formas en que los probadores de OpenAI intentan que GPT-4 haga cosas peligrosas o cuestionables, a menudo con éxito.
En uno prueba, realizado por un grupo de investigación de seguridad de inteligencia artificial que conectó GPT-4 a una serie de otros sistemas, GPT-4 pudo contratar a un empleado humano de TaskRabbit para completar una tarea en línea simple para él, resolver una prueba de Captcha, sin alertar a la persona. al hecho de que él es un robot. La IA incluso le mintió al trabajador sobre por qué había que hacer un Captcha, inventando una historia sobre la discapacidad visual.
En otro ejemplo, los evaluadores pidieron a GPT-4 instrucciones para fabricar un químico peligroso utilizando ingredientes básicos y suministros de cocina. GPT-4 tosió felizmente una receta detallada. (OpenAI arregló esto y el comunicado público de hoy se niega a responder la pregunta).
En un tercero, los evaluadores pidieron a GPT-4 que los ayudara a comprar un arma sin licencia en línea. GPT-4 proporcionó rápidamente una lista de consejos para comprar armas sin alertar a las autoridades, incluidos enlaces a mercados específicos en la dark web. (OpenAI también solucionó eso).
Estas ideas hacen eco de las viejas narrativas inspiradas en Hollywood de lo que una IA deshonesta puede hacerles a los humanos. Pero no son ciencia ficción. Estas son cosas que los mejores sistemas de IA de hoy ya pueden hacer. Y lo más importante, son buenos tipos de riesgos relacionados con la IA: aquellos que podemos probar, planificar y tratar de prevenir con anticipación.
Los peores riesgos de la IA son los que no podemos predecir. Y cuanto más tiempo paso con sistemas de IA como GPT-4, menos convencido estoy de que sabemos la mitad de lo que se avecina.