En esta escuela, las clases de informática ahora incluyen la crítica de los chatbots. - كورة برس

En esta escuela, las clases de informática ahora incluyen la crítica de los chatbots.

جوجل بلس

La clase de ciencias de la computación de Marissa Shuman en Bronx School for Young Women’s Leadership comenzó como de costumbre en una mañana de enero reciente.

Poco después de las 11:30 a. m., enérgicos estudiantes de 11.º y 12.º grado entraron al salón de clases, se sentaron en mesas de estudio comunes y sacaron sus computadoras portátiles. Luego se volvieron hacia el frente de la sala, mirando una pizarra donde la Sra. Shuman había publicado una pregunta sobre la tecnología portátil, el tema del día.

Por primera vez en su carrera docente de una década, la Sra. Shuman no había escrito un solo plan de lección. Ella había generado el material de la clase usando ChatGPT, un nuevo chatbot que se basa en inteligencia artificial para proporcionar respuestas escritas a preguntas en una prosa clara. La Sra. Shuman usó la lección generada por el algoritmo para explorar la utilidad potencial y las trampas del chatbot con sus alumnos.

“No me importa si aprenden algo sobre la tecnología portátil hoy”, dijo la Sra. Shuman a sus alumnos. “Apreciamos ChatGPT. Su objetivo es determinar si la lección es eficaz o ineficaz.

En los Estados Unidos, las universidades y los distritos escolares están luchando para hacer frente a los nuevos chatbots que pueden generar texto e imágenes similares a los humanos. Pero mientras muchos se apresuran a prohibir ChatGPT para tratar de evitar su uso como ayuda para hacer trampa, maestros como la Sra. Shuman están utilizando la innovación para fomentar un pensamiento más crítico en el aula. Animan a sus estudiantes a cuestionar la exageración en torno al rápido desarrollo de herramientas de IA y a considerar los posibles efectos secundarios de la tecnología.

El objetivo, dicen estos educadores, es capacitar a la próxima generación de creadores y usuarios de tecnología en “computación crítica”. Es un enfoque analítico en el que comprender cómo criticar los algoritmos informáticos es tan importante como, o más importante, que saber programar computadoras.

Las Escuelas Públicas de la Ciudad de Nueva York, el distrito más grande del país que atiende a unos 900.000 estudiantes, está capacitando a un cuadro de profesores de informática para ayudar a sus estudiantes a identificar los sesgos y los riesgos potenciales de la IA. Los tutoriales incluyen discusiones sobre algoritmos de reconocimiento facial defectuosos que pueden ser mucho más precisos para identificar rostros blancos que rostros de piel más oscura.

En Illinois, Florida, Nueva York y Virginia, algunos profesores de ciencias y humanidades de secundaria están utilizando un plan de estudios de alfabetización en inteligencia artificial desarrollado por investigadores del Programa de formación de profesores Scheller del MIT. Una lección les pide a los estudiantes que consideren la ética de los poderosos sistemas de inteligencia artificial conocidos como “redes antagónicas generativas”, que pueden usarse para producir contenido de medios falso, como videos realistas de políticos conocidos que dicen frases que en realidad nunca dijeron. decir.

A medida que proliferan las tecnologías de IA generativa, los educadores e investigadores dicen que comprender dichos algoritmos informáticos es una habilidad crucial que los estudiantes necesitarán para navegar en la vida cotidiana y participar en la educación cívica y la sociedad.

“Es importante que los estudiantes sepan cómo funciona la IA porque sus datos se están agotando, su actividad de usuario se está utilizando para entrenar estas herramientas”, dijo Kate Moore, investigadora educativa del MIT que ayudó a crear las lecciones de IA para las escuelas. “Se están tomando decisiones sobre el uso de la IA por parte de los jóvenes, lo sepan o no”.

Para observar cómo algunos educadores alientan a sus estudiantes a explorar de cerca las tecnologías de IA, recientemente pasé dos días visitando clases en Bronx School for Young Women’s Leadership, una escuela secundaria y preparatoria pública para niñas a la vanguardia de esta tendencia.

La enorme escuela de ladrillos beige se especializa en matemáticas, ciencia y tecnología. Atiende a casi 550 estudiantes, la mayoría de los cuales son hispanos o negros.

Esto no es de ninguna manera una escuela pública típica. Se alienta a los maestros a ayudar a sus estudiantes a convertirse, como dice el sitio web de la escuela, en mujeres jóvenes “innovadoras” con las habilidades para graduarse de la universidad e “influir en las actitudes públicas, las políticas y las leyes para crear una sociedad socialmente más justa”. La escuela también tiene una envidiable tasa de graduación de la escuela secundaria de cuatro años del 98 por ciento, significativamente más alta que el promedio de las escuelas secundarias de la ciudad de Nueva York.

Una mañana de enero, unos 30 estudiantes de noveno y décimo grado, muchos de ellos vestidos con sudaderas escolares azul marino y pantalones grises, se apresuraron a entrar a una clase llamada Ingeniería de software 1. El curso práctico introdujo a los estudiantes a la codificación, la resolución de problemas informáticos y las implicaciones sociales de las innovaciones tecnológicas.

Es uno de varios cursos de ciencias de la computación en la escuela que lleva a los estudiantes a considerar cómo los algoritmos informáticos populares, a menudo desarrollados por equipos de empresas de tecnología compuestos principalmente por hombres blancos y asiáticos, pueden tener un impacto dispar en grupos como inmigrantes y comunidades con bajos ingresos. El tema de esta mañana: los sistemas de coincidencia de rostros que pueden tener dificultades para reconocer rostros de piel más oscura, como los de algunos de los estudiantes en la sala y sus familias.

De pie frente a su clase, Abby Hahn, la profesora de computación, sabía que el tema podría sorprender a sus alumnos. La tecnología defectuosa de comparación de rostros ha ayudado a los arrestos falsos de hombres negros.

Por lo tanto, la Sra. Khan advirtió a sus alumnos que en clase se discutirían temas delicados como el racismo y el sexismo. Luego lanzó un video de YouTube creado en el 2018. Joy Buolamwini, Informáticamostrando cómo algunos sistemas populares de análisis facial identifican erróneamente a mujeres negras icónicas como hombres.

Mientras la clase miraba el video, algunos estudiantes se quedaron boquiabiertos. Oprah Winfrey “parece ser un hombre”, dijo la tecnología de Amazon con un 76,5 por ciento de confianza, según el video. Otras partes del video dicen que el sistema de Microsoft confundió a Michelle Obama con “un hombre joven que vestía una camisa negra” y que el sistema de IBM identificó a Serena Williams como “masculina” con un 89 por ciento de confianza.

(Microsoft y Amazon anunciaron más tarde mejoras en la precisión de sus sistemas e IBM dejó de vender tales herramientas. Amazon dijo que estaba comprometida a mejorar continuamente su tecnología de análisis facial a través de los comentarios de los clientes y la colaboración con investigadores, y Microsoft e IBM han dicho que están comprometidas al desarrollo responsable de la IA)

“Estoy sorprendida de cómo las mujeres de color son percibidas como hombres, a pesar de que no se parecen en nada a los hombres”, dijo Nadia Zadin, una estudiante de 14 años. “¿Joe Biden sabe sobre esto?”

El objetivo de la lección sobre los sesgos en la inteligencia artificial, dijo Khan, es mostrar a los estudiantes de programación que los algoritmos informáticos pueden estar equivocados, al igual que los automóviles y otros productos diseñados por humanos, y alentarlos a desafiar las tecnologías problemáticas.

“Ustedes son la próxima generación”, les dijo la Sra. Khan a las jóvenes cuando terminó la clase. “Cuando estés en el mundo, ¿vas a dejar que eso suceda?”

“¡No!” respondió un coro de estudiantes.

Unas cuantas puertas más abajo en el pasillo, en un colorido salón de clases adornado con copos de nieve de papel hechos a mano y grullas de origami, la Sra. Shuman se preparaba para dictar un curso de programación avanzada, Ingeniería de software 3, enfocado en la computación creativa, como el diseño de juegos y el arte. A principios de esta semana, sus estudiantes programadores discutieron cómo los nuevos sistemas impulsados ​​​​por IA como ChatGPT pueden analizar grandes cantidades de información y luego crear ensayos e imágenes humanos en respuesta a breves indicaciones.

Como parte de la lección, los estudiantes de Year 11 y Year 12 leyeron artículos de noticias sobre cómo ChatGPT puede ser útil y propenso a errores. También leyeron publicaciones en las redes sociales sobre cómo se podría incitar al chatbot a generar textos que promovieran el odio y la violencia.

Pero los estudiantes no pudieron probar ChatGPT en clase por sí mismos. El distrito escolar lo bloqueó debido a la preocupación de que pudiera usarse para hacer trampa. Entonces, los estudiantes le pidieron a la Sra. Shuman que usara el chatbot para crear una lección para la clase como un experimento.

La Sra. Schumann pasa horas en casa haciendo que el sistema genere un tutorial sobre tecnología portátil como los relojes inteligentes. En respuesta a sus solicitudes específicas, ChatGPT produjo un plan de lección de 30 minutos notablemente detallado, completo con una discusión de calentamiento, lectura de tecnología portátil, ejercicios en clase y una discusión de cierre.

Cuando comenzó la clase, la Sra. Shuman pidió a los estudiantes que pasaran 20 minutos después de la lección en un guión como si fuera una clase de tecnología portátil real. Luego analizarán la efectividad de ChatGPT como un maestro simulado.

Reunidos en pequeños grupos, los estudiantes leen en voz alta información generada por bots sobre las comodidades, los beneficios para la salud, las marcas y el valor de mercado de los relojes inteligentes y los monitores de actividad física. Hubo gemidos cuando los estudiantes leyeron las frases tranquilizadoras de ChatGPT: “Ejemplos de anteojos inteligentes incluyen Google Glass Enterprise 2”, que dijeron que sonaba como una copia de marketing o críticas favorables para el producto.

“Me recordó a cuarto grado”, dijo Jayda Arias, de 18 años. “Fue muy aburrido.”

La clase encontró la lección abrumadora en comparación con las de la Sra. Shuman, una maestra carismática que crea materiales de aprendizaje para sus alumnos específicos, les hace preguntas provocativas y presenta ejemplos relevantes del mundo real sobre la marcha.

“La única parte efectiva de esta lección es que es clara”, dijo Alexania Echevarria, de 17 años, sobre el material de ChatGPT.

“Parece que a ChatGPT le encanta la tecnología portátil”, señaló Alia Boginya Burke, de 17 años, otra estudiante. “¡Es adictivo!”

La Sra. Shuman estaba ofreciendo una lección que iba más allá de aprender a identificar los sesgos de la IA. Usó ChatGPT para dar a sus estudiantes el mensaje de que la inteligencia artificial no es inevitable y que las mujeres jóvenes tienen la perspicacia para desafiarla.

“¿Tus maestros deberían usar ChatGPT?”, preguntó la Sra. Shuman hacia el final de la lección.

La respuesta de los estudiantes fue un rotundo “¡No!”. Por ahora.