Un hombre está demandando a la aerolínea Avianca. Su abogado usa ChatGPT. - كورة برس

Un hombre está demandando a la aerolínea Avianca. Su abogado usa ChatGPT.

جوجل بلس

El caso comenzó como muchos otros: un hombre llamado Roberto Matta demandó a la aerolínea Avianca, diciendo que resultó herido cuando un carrito de servicio de metal golpeó su rodilla durante un vuelo al Aeropuerto Internacional Kennedy en Nueva York.

Cuando Avianca le pidió a un juez federal en Manhattan que desestimara la demanda, los abogados de Matta respondieron ferozmente y presentaron un escrito de 10 páginas que citaba más de media docena de decisiones judiciales relevantes. Hubo Martinez v. Delta Air Lines, Zicherman v. Korean Air Lines y, por supuesto, Varghese v. China Southern Airlines, con su erudita discusión sobre la ley federal y el “efecto de suspensión de la suspensión automática del estatuto de limitaciones”. “

Solo hubo un problema: nadie, ni los abogados de la aerolínea, ni siquiera el propio juez, pudo encontrar las decisiones o citaciones citadas y resumidas en el escrito.

Esto se debió a que ChatGPT había inventado todo.

El abogado que creó el escrito, Steven A. Schwartz de la firma Levidow, Levidow & Oberman, se puso a merced de la corte el jueves y dijo en una declaración jurada que usó el programa de inteligencia artificial para hacer su investigación legal, “una fuente eso resultó ser poco confiable”.

El Sr. Schwartz, que ha ejercido la abogacía en Nueva York durante tres décadas, le dijo al juez P. Kevin Castel que no tenía intención de engañar al tribunal ni a la aerolínea. Schwartz dijo que nunca había usado ChatGPT y “por lo tanto, desconocía la posibilidad de que su contenido fuera falso”.

Le dijo al juez Castel que incluso le pidió al programa que verificara que los casos fueran genuinos.

Se dijo que sí.

Schwartz dijo que “lamenta mucho” confiar en ChatGPT “y nunca lo hará en el futuro sin verificar absolutamente su autenticidad”.

El juez Castel dijo en una orden que se le presentó una “circunstancia sin precedentes”, una presentación legal llena de “falsas decisiones judiciales, con falsas citaciones y falsas citaciones internas”. Fijó una audiencia para el 8 de junio para discutir posibles sanciones.

A medida que la inteligencia artificial se apodera del mundo en línea, ha creado visiones distópicas de computadoras que reemplazan no solo la interacción humana, sino también el trabajo humano. El temor es especialmente fuerte para los trabajadores del conocimiento, a muchos de los cuales les preocupa que sus actividades diarias no sean tan escasas como el mundo piensa, pero para quienes el mundo paga horas facturables.

Stephen Gillers, profesor de ética legal en la Facultad de Derecho de la Universidad de Nueva York, dijo que el problema es particularmente grave entre los abogados que debaten el valor y los peligros del software de inteligencia artificial como ChatGPT, y la necesidad de examinar cualquier información que proporcione.

“La discusión ahora entre los abogados es cómo evitar exactamente lo que describe este caso”, dijo Gillers. “No se puede simplemente tomar la partitura y cortarla y pegarla en los documentos de la corte”.

El Caso Real de Roberto Matta Vs. Avianca Inc. muestra que los trabajos administrativos pueden tener al menos un poco de tiempo antes de que los robots se hagan cargo.

Todo comenzó cuando Mata era pasajero en el vuelo 670 de Avianca de El Salvador a Nueva York el 27 de agosto de 2019, cuando un empleado de la aerolínea lo golpeó con un carrito de servicio, según la demanda. Después de que el Sr. Matta presentó la demanda, la aerolínea presentó documentos solicitando que se desestimara el caso porque el estatuto de limitaciones había expirado.

En una solicitud presentada en marzo, los abogados de Matta dijeron que el caso debería seguir adelante, respaldando su argumento con referencias y citas de las muchas decisiones judiciales que desde entonces han sido anuladas.

Los abogados de Avianca pronto le escribieron al juez Castell diciendo que no podían encontrar los casos citados en el escrito.

En cuanto a Varghese v. China Southern Airlines, dijeron que “no pudieron encontrar este caso por título o cita, ni ningún caso que se le pareciera”.

Señalaron una larga cita de la supuesta decisión de Varghese contenida en el informe. “El que suscribe no ha podido encontrar esta cotización, ni nada parecido en ningún caso”, escribieron los abogados de Avianca.

De hecho, agregaron los abogados, la citación, que proviene del mismo Varghese, cita algo llamado Zicherman v. Korean Air Lines Co. Ltd., una opinión supuestamente emitida por la Corte de Apelaciones del Circuito 11 de EE. UU. en 2008. Dijeron que tampoco podía encontrar eso.

El juez Castel ordenó a los abogados de Matta que proporcionaran copias de las presentaciones establecidas en su memorando. Los abogados presentaron un compendio de ocho; en la mayoría de los casos, enumeran el tribunal y los jueces que los emitieron, los números de expediente y las fechas.

La copia de la supuesta decisión de Varghese, por ejemplo, tiene seis páginas y dice que fue escrita por un panel de tres jueces del 11° Circuito. Pero los abogados de Avianca le dijeron al juez que no podían encontrar esa opinión ni las otras en documentos judiciales o bases de datos legales.

Bart Banino, abogado de Avianca, dijo que su firma, Condon & Forsyth, se especializa en derecho aeronáutico y que sus abogados podían decir que los casos en el escrito no eran reales. Agregó que tenían el presentimiento de que un chatbot podría estar involucrado.

Schwartz no devolvió un mensaje en busca de comentarios, ni Peter Loduca, otro abogado de la firma cuyo nombre aparece en el escrito.

El Sr. LoDuca dijo en una declaración jurada esta semana que no había realizado ninguna de las investigaciones en cuestión y que “no tenía motivos para dudar de la sinceridad” del trabajo del Sr. Schwartz o la autenticidad de las opiniones.

ChatGPT genera respuestas realistas al hacer suposiciones sobre qué fragmentos de texto deben seguir otras secuencias, según un modelo estadístico que ha ingerido miles de millones de ejemplos de texto extraídos de todo Internet. En el caso del Sr. Matta, el programa parece haber entendido el marco laberíntico de un argumento legal escrito, pero lo llenó con nombres y hechos de bullabesa de casos existentes.

El juez Castell, en su orden de audiencia, indicó que había hecho su propia investigación. Escribió que el secretario del 11º Circuito confirmó que el número de caso impreso en la supuesta opinión de Varghese estaba relacionado con un caso completamente diferente.

Al calificar la opinión de “espuria”, el juez Castell señaló que contiene citas internas y citas que a su vez no existen. Dijo que cinco de los otros juicios presentados por los abogados de Mata también parecían ser falsos.

El jueves, los abogados de Matta ofrecieron declaraciones juradas que contenían su versión de lo sucedido.

El Sr. Schwartz escribió que inicialmente llevó el caso del Sr. Matta a la corte estatal, pero después de que la aerolínea lo transfirió a la corte federal en Manhattan, donde el Sr. Schwartz no es elegible para ejercer, uno de sus colegas, el Sr. n Loduka, se convierte en adv. Schwartz dijo que continuó haciendo investigaciones legales en las que LoDuca no tuvo ningún papel.

Schwartz dijo que había consultado ChatGPT “para complementar” su propio trabajo y que “en consulta” había descubierto y citado media docena de casos inexistentes. Dijo que ChatGPT ha proporcionado garantías.

“¿Es este un caso real varghese?”, escribió, según una copia del intercambio que envió al juez.

“Sí”, respondió el chatbot, ofreciendo una cita y agregando que “es un caso real”.

El Sr. Schwartz cavó más profundo.

“¿Cuál es su fuente?”, escribió, según el expediente.

“Perdón por la confusión anterior”, respondió ChatGPT, ofreciendo una cotización legal.

“¿Son falsos los otros casos que proporcionó?”, preguntó Schwartz.

ChatGPT respondió: “No, los otros casos que proporcioné son reales y se pueden encontrar en bases de datos legales acreditadas”.

Pero, ¡ay!, no iban a serlo.

Sheelagh McNeil contribuyó con la investigación.