El futuro de la IA: qué sigue y qué esperar - كورة برس

El futuro de la IA: qué sigue y qué esperar

جوجل بلس

En el boletín de AI de hoy, lo último en nuestra serie de cinco partesMiro hacia dónde puede dirigirse la inteligencia artificial en los próximos años.

A principios de marzo, visité las oficinas de OpenAI en San Francisco para ver GPT-4, una nueva versión de la tecnología que sustenta su chatbot ChatGPT. El momento más emocionante llegó cuando Greg Brockman, presidente y cofundador de OpenAI, mostró una función que aún no está disponible para el público: le dio al bot una imagen del telescopio espacial Hubble y le pidió que describiera la imagen “con minucioso detalle”. .”

La descripción era completamente precisa, hasta la extraña línea blanca creada por un satélite que cruzaba el cielo. Este es un vistazo al futuro de los chatbots y otras tecnologías de IA: una nueva ola de sistemas multimodales hará malabares con imágenes, sonidos y videos, así como con texto.

Ayer, mi colega Kevin Roose les habló sobre lo que la IA puede hacer ahora. Me centraré en las oportunidades y los trastornos que se avecinan a medida que adquiere habilidades y destrezas.

Las IA generativas ahora pueden responder preguntas, escribir poesía, generar código de computadora y mantener conversaciones. Como sugiere “chatbot”, primero se lanzan en formatos conversacionales como ChatGPT y Bing.

Pero eso no durará mucho. Microsoft y Google ya han anunciado planes para incorporar estas tecnologías de IA en sus productos. Podrá usarlos para escribir un borrador de un correo electrónico, resumir automáticamente una reunión y realizar toneladas de otros trucos geniales.

OpenAI también ofrece una API, o interfaz de programación de aplicaciones, que otras empresas de tecnología pueden utilizar para incorporar GPT-4 en sus aplicaciones y productos. Y generó una serie de complementos de compañías como Instacart, Expedia y Wolfram Alpha que amplían las capacidades de ChatGPT.

Muchos expertos creen que la IA hará que algunos trabajadores, incluidos médicos, abogados y programadores informáticos, sean más productivos que nunca. También creen que algunos trabajadores serán reemplazados.

“Va a afectar tareas que son más repetitivas, más formuladas, más genéricas”, dijo Zachary Lipton, profesor de Carnegie Mellon que se especializa en inteligencia artificial y su impacto en la sociedad. “Esto puede liberar a algunas personas que no son buenas para las tareas repetitivas. Al mismo tiempo, existe una amenaza para las personas que se especializan en la parte repetitiva”.

El trabajo realizado por humanos puede desaparecer de la transcripción y traducción de audio a texto. En el campo legal, GPT-4 ya tiene la experiencia suficiente para aprobar el examen de la barra, y la firma de contabilidad PricewaterhouseCoopers planea lanzar un chatbot legal basado en OpenAI para su personal.

Al mismo tiempo, empresas como OpenAI, Google y Meta están creando sistemas que le permiten generar instantáneamente imágenes y videos simplemente describiendo lo que desea ver.

Otras compañías están creando bots que realmente pueden usar sitios web y aplicaciones de software como lo hacen los humanos. En la próxima etapa de la tecnología, los sistemas de inteligencia artificial pueden comprar sus regalos de Navidad en línea, contratar personas para hacer las tareas del hogar y realizar un seguimiento de sus gastos mensuales.

Todo esto es mucho en lo que pensar. Pero el mayor problema puede ser este: antes de que tengamos la oportunidad de comprender cómo estos sistemas afectarán al mundo, se volverán aún más poderosos.

Para empresas como OpenAI y DeepMind, un laboratorio propiedad de la empresa matriz de Google, el plan es llevar esta tecnología lo más lejos posible. Esperan construir eventualmente lo que los investigadores llaman inteligencia general artificialo AGI, una máquina que puede hacer cualquier cosa que un cerebro humano pueda hacer.

Como me dijo Sam Altman, director ejecutivo de OpenAI, hace tres años: “Mi objetivo es crear AGI ampliamente útil, también entiendo que suena divertido”. Hoy, suena menos divertido. Pero aún es más fácil decirlo que hacerlo.

Para que una IA se convierta en una AGI, se requerirá una comprensión del mundo físico en su conjunto. Y no está claro si los sistemas pueden aprender a imitar a lo largo y ancho del razonamiento humano y el sentido común usando los métodos que han producido tecnologías como GPT-4. Probablemente se necesitarán nuevos avances.

La pregunta es, ¿realmente queremos que la IA se vuelva tan poderosa? Una pregunta relacionada muy importante: ¿Hay alguna forma de detener esto?

Muchos líderes de IA creen que las tecnologías que crean mejorarán nuestras vidas. Pero algunos han advertido durante décadas sobre un escenario más oscuro, en el que nuestras creaciones no siempre hacen lo que queremos que hagan, o siguen nuestras instrucciones de manera impredecible, con consecuencias potencialmente nefastas.

Los expertos en IA hablan de “alineación” — es decir, asegurarse de que los sistemas de IA estén alineados con los valores y objetivos humanos.

Antes de que se lanzara GPT-4, OpenAI se lo entregó a un grupo externo para que imaginara y probara usos peligrosos del chatbot.

El grupo descubrió que el sistema podía reclutar a una persona en línea para superar una prueba de Captcha. Cuando la persona preguntó si era un “robot”, el sistema, sin que los evaluadores lo incitaran, mintió y dijo que era una persona con discapacidad visual.

Los evaluadores también mostraron que el sistema podría verse obligado a sugerir cómo comprar armas de fuego ilegales en línea y describir formas de fabricar sustancias peligrosas a partir de artículos para el hogar. Después de los cambios de OpenAI, el sistema ya no hace estas cosas.

Pero es imposible eliminar todos los posibles abusos. A medida que un sistema como este aprende de los datos, desarrolla habilidades que sus creadores nunca esperaron. Es difícil ver cómo las cosas podrían salir mal después de que millones de personas comiencen a usarlo.

“Cada vez que construimos un nuevo sistema de IA, no podemos caracterizar por completo todas sus capacidades y todos sus problemas de seguridad, y ese problema empeora con el tiempo, en lugar de mejorar”, dijo Jack Clark, fundador y director. de la política de Anthropic, una startup de San Francisco que construye el mismo tipo de tecnología.

Y OpenAI y gigantes como Google no son los únicos que exploran esta tecnología. Los métodos básicos utilizados para construir estos sistemas son ampliamente conocidos y otras empresas, países, laboratorios de investigación y malos actores pueden ser menos cuidadosos.

En última instancia, contener tecnología de IA peligrosa requerirá una supervisión de gran alcance. Sin embargo, los expertos no son optimistas.

“Necesitamos un sistema regulatorio que sea internacional”, dijo Aviv Ovadia, investigador del Centro Berkman Klein para Internet y Sociedad de Harvard, quien ayudó a probar GPT-4 antes de su lanzamiento. “Pero no veo que nuestras instituciones gubernamentales existentes lo aborden a la velocidad que necesitamos”.

Como informamos a principios de esta semana, más de 1000 líderes tecnológicos e investigadores, incluido Elon Musk, pidieron a los laboratorios de IA que detuvieran el desarrollo de los sistemas más avanzados y advirtieron en una carta abierta que las herramientas de IA plantean “profundos riesgos para la sociedad y la humanidad”.

Los desarrolladores de IA están “encerrados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable”, según la carta.

Algunos expertos están más preocupados por los peligros a corto plazo, incluida la difusión de información errónea y el riesgo de que las personas confíen en estos sistemas para obtener consejos médicos y emocionales inexactos o dañinos.

Pero otros críticos son parte de una comunidad en línea enorme e influyente llamada racionalistas, o altruistas eficientes, que creen que la IA eventualmente podría destruir a la humanidad. Esta forma de pensar se refleja en la carta.

Comparta sus pensamientos y comentarios sobre nuestra serie On Tech: AI a través de esta breve encuesta.

Podemos especular sobre adónde irá la IA en un futuro lejano, pero también podemos preguntarles a los propios chatbots. Para su tarea final, trate a ChatGPT, Bing o Bard como un joven solicitante de empleo entusiasta y pregúnteles cómo se ven dentro de 10 años. Como siempre, comparte tus respuestas en los comentarios.


Pregunta 1 de 3

Comience el cuestionario eligiendo su respuesta.


Alineación: Los intentos de los investigadores y especialistas en ética de la IA para garantizar que la inteligencia artificial actúe de acuerdo con los valores y objetivos de las personas que la crean.

Sistemas multimodales: Una IA similar a ChatGPT que también puede procesar imágenes, video, audio y otras entradas y salidas no textuales.

Inteligencia artificial general: Inteligencia artificial que coincide con la inteligencia humana y puede hacer cualquier cosa que el cerebro humano pueda hacer.

Haga clic aquí para ver más términos en el glosario.


Kevin aquí. Gracias por pasar los últimos cinco días con nosotros. Fue genial ver sus comentarios y creatividad. (Me gustó especialmente el comentarista que usó ChatGPT para escribir una carta de presentación para mi trabajo).

El tema de la IA es tan amplio y evoluciona tan rápidamente que ni siquiera cinco boletines son suficientes para cubrirlo todo. Si desea profundizar más, puede consultar mi libro Futureproof y el libro Genius Makers de Cade, los cuales brindan más detalles sobre los temas que cubrimos esta semana.

Cade aquí: Mi comentario favorito provino de alguien que le pidió a ChatGPT que planificara una ruta a través de los senderos de su estado. En última instancia, el bot sugiere una ruta que no existe como una forma de transición entre otras dos rutas que sí existen.

Este pequeño truco proporciona una ventana tanto al poder como a las limitaciones de los chatbots y otros sistemas de inteligencia artificial actuales. Han aprendido mucho de lo que se publica en Internet y pueden usar lo que han aprendido de maneras notables, pero siempre existe el riesgo de insertar información plausible pero falsa. ¡Adelante! ¡Chatea con estos bots! ¡Pero también confíe en su propio juicio!

por favor toma esta breve encuesta para compartir sus pensamientos y comentarios sobre este boletín de edición limitada.