Saltar al contenido

Un hombre demandó a la aerolínea Avianca. Su abogado usó ChatGPT.

28 de mayo de 2023

La demanda comenzó como tantas otras: un hombre llamado Roberto Mata demandó a la aerolínea Avianca, diciendo que resultó herido cuando un carrito de servicio de metal golpeó su rodilla durante un vuelo al Aeropuerto Internacional Kennedy en Nueva York.

Cuando Avianca le pidió a un juez federal de Manhattan que desestimara el caso, los abogados de Mata se opusieron con vehemencia y presentaron un escrito de 10 páginas que citaba más de media docena de decisiones judiciales relevantes. Hubo Martinez v. Delta Air Lines, Zicherman v. Korean Air Lines y, por supuesto, Varghese v. China Southern Airlines, con su erudita discusión sobre la ley federal y “el efecto negativo de la suspensión automática en un estatuto de limitaciones”.

Solo hubo un problema: nadie, ni los abogados de la aerolínea, ni siquiera el propio juez, pudo encontrar las decisiones o las citas citadas y resumidas en el escrito.

Eso fue porque ChatGPT había inventado todo.

El abogado que creó el escrito, Steven A. Schwartz de la firma Levidow, Levidow & Oberman, se puso a merced de la corte el jueves y dijo en una declaración jurada que había usado el programa de inteligencia artificial para hacer su investigación legal: “ una fuente que se ha revelado como poco confiable”.

El Sr. Schwartz, que ha ejercido la abogacía en Nueva York durante tres décadas, le dijo al juez P. Kevin Castel que no tenía intención de engañar al tribunal ni a la aerolínea. El Sr. Schwartz dijo que nunca había usado ChatGPT y «por lo tanto, no estaba al tanto de la posibilidad de que su contenido pudiera ser falso».

Le dijo al juez Castel que incluso le había pedido al programa que verificara que los casos eran reales.

había dicho que sí.

Schwartz dijo que «lamenta mucho» confiar en ChatGPT «y nunca lo hará en el futuro sin una verificación absoluta de su autenticidad».

El juez Castel dijo en una orden que se le había presentado “una circunstancia sin precedentes”, una presentación legal repleta de “decisiones judiciales falsas, con citas falsas y citas internas falsas”. Ordenó una audiencia para el 8 de junio para discutir posibles sanciones.

Recomendado:  El equipo rojo de OpenAI: los expertos contratados para 'romper' ChatGPT

A medida que la inteligencia artificial barre el mundo en línea, ha conjurado visiones distópicas de computadoras que reemplazan no solo la interacción humana, sino también el trabajo humano. El temor ha sido especialmente intenso para los trabajadores del conocimiento, a muchos de los cuales les preocupa que sus actividades diarias no sean tan enrarecidas como el mundo piensa, pero por las cuales el mundo paga horas facturables.

Stephen Gillers, profesor de ética legal en la Facultad de Derecho de la Universidad de Nueva York, dijo que el problema era particularmente grave entre los abogados, que han estado debatiendo el valor y los peligros del software de IA como ChatGPT, así como la necesidad de verificar cualquier información que proporcione. .

“La discusión ahora entre la barra es cómo evitar exactamente lo que describe este caso”, dijo Gillers. “No se puede simplemente tomar la salida y cortarla y pegarla en sus documentos judiciales”.

El caso de la vida real de Roberto Mata v. Avianca Inc. muestra que las profesiones de cuello blanco pueden tener al menos un poco de tiempo antes de que los robots tomen el control.

Comenzó cuando Mata era pasajero en el vuelo 670 de Avianca de El Salvador a Nueva York el 27 de agosto de 2019, cuando un empleado de la aerolínea lo golpeó con el carrito de servicio, según la demanda. Después de que el Sr. Mata presentó la demanda, la aerolínea presentó documentos solicitando que se desestimara el caso porque el estatuto de limitaciones había expirado.

En un escrito presentado en marzo, los abogados de Mata dijeron que la demanda debería continuar, reforzando su argumento con referencias y citas de las muchas decisiones judiciales que desde entonces han sido desacreditadas.

Pronto, los abogados de Avianca le escribieron al juez Castel, diciendo que no podían encontrar los casos que se citaban en el escrito.

Cuando se trató de Varghese v. China Southern Airlines, dijeron que “no habían podido localizar este caso por título o cita, ni ningún caso que se pareciera a él”.

Recomendado:  El ayudante de IA del ejército sugeriría acciones en peleas multidominio

Señalaron una larga cita de la supuesta decisión de Varghese contenida en el escrito. “El suscrito no ha podido localizar esta cotización, ni nada parecido en ningún caso”, escribieron los abogados de Avianca.

De hecho, agregaron los abogados, la cita, que provino del mismo Varghese, citaba algo llamado Zicherman v. Korean Air Lines Co. Ltd., una opinión supuestamente emitida por la Corte de Apelaciones del 11° Circuito de EE. UU. en 2008. Dijeron que tampoco pude encontrar eso.

El juez Castel ordenó a los abogados del señor Mata que entregaran copias de los dictámenes referidos en su escrito. Los abogados presentaron un compendio de ocho; en la mayoría de los casos, enumeraban el tribunal y los jueces que los emitieron, los números de expediente y las fechas.

La copia de la supuesta decisión de Varghese, por ejemplo, tiene seis páginas y dice que fue escrita por un miembro de un panel de tres jueces del 11° Circuito. Pero los abogados de Avianca le dijeron al juez que no pudieron encontrar esa opinión, ni las otras, en los expedientes judiciales ni en las bases de datos legales.

Bart Banino, abogado de Avianca, dijo que su firma, Condon & Forsyth, se especializa en derecho aeronáutico y que sus abogados podían decir que los casos en el escrito no eran reales. Agregó que tenían un indicio de que un chatbot podría haber estado involucrado.

Schwartz no respondió a un mensaje en busca de comentarios, ni Peter LoDuca, otro abogado de la firma, cuyo nombre aparecía en el escrito.

El Sr. LoDuca dijo en una declaración jurada esta semana que no realizó ninguna de las investigaciones en cuestión y que “no tenía motivos para dudar de la sinceridad” del trabajo del Sr. Schwartz o la autenticidad de las opiniones.

ChatGPT genera respuestas realistas al adivinar qué fragmentos de texto deben seguir otras secuencias, según un modelo estadístico que ha ingerido miles de millones de ejemplos de texto extraídos de Internet. En el caso del Sr. Mata, el programa parece haber discernido el marco laberíntico de un argumento legal escrito, pero lo ha poblado con nombres y hechos de una bullabesa de casos existentes.

Recomendado:  El mercado de robots de inteligencia artificial (IA) está en auge en todo el mundo 2020-2027

El juez Castel, en su orden de convocatoria de audiencia, sugirió que había hecho su propia investigación. Escribió que el secretario del 11º Circuito había confirmado que el número de expediente impreso en la supuesta opinión de Varghese estaba relacionado con un caso completamente diferente.

Al calificar la opinión de “falsa”, el juez Castel señaló que contenía citas internas y citas que, a su vez, eran inexistentes. Dijo que cinco de las otras decisiones presentadas por los abogados del Sr. Mata también parecían ser falsas.

El jueves, los abogados de Mata ofrecieron declaraciones juradas con su versión de lo sucedido.

El Sr. Schwartz escribió que originalmente había presentado la demanda del Sr. Mata en la corte estatal, pero después de que la aerolínea la transfirió a la corte federal de Manhattan, donde el Sr. Schwartz no está autorizado para ejercer, uno de sus colegas, el Sr. LoDuca, se convirtió en el abogado de registro. Schwartz dijo que había continuado con la investigación legal, en la que LoDuca no tenía ningún papel.

Schwartz dijo que había consultado a ChatGPT “para complementar” su propio trabajo y que, “en consulta” con él, encontró y citó la media docena de casos inexistentes. Dijo que ChatGPT había brindado garantías.

“Es varghese un caso real”, escribió, según una copia del intercambio que presentó al juez.

“Sí”, respondió el chatbot, ofreciendo una cita y agregando que “es un caso real”.

El Sr. Schwartz cavó más profundo.

«¿Cuál es su fuente?», escribió, según el expediente.

“Me disculpo por la confusión anterior”, respondió ChatGPT, ofreciendo una citación legal.

“¿Son falsos los otros casos que proporcionó?”, preguntó Schwartz.

ChatGPT respondió: «No, los otros casos que proporcioné son reales y se pueden encontrar en bases de datos legales acreditadas».

Pero, por desgracia, no pudieron ser.

Sheelagh McNeil contribuyó con la investigación.