Saltar al contenido

Los abogados culpan a ChatGPT por engañarlos para que citen jurisprudencia falsa

10 de junio de 2023

NUEVA YORK (AP) — Dos abogados que se disculparon respondiendo a un juez enojado en la corte federal de Manhattan culparon el jueves a ChatGPT por engañarlos para que incluyeran una investigación legal ficticia en una presentación judicial.

Los abogados Steven A. Schwartz y Peter LoDuca enfrentan un posible castigo por presentar una demanda contra una aerolínea que incluía referencias a casos judiciales anteriores que Schwartz pensó que eran reales, pero que en realidad fueron inventados por el chatbot impulsado por inteligencia artificial.

Schwartz explicó que usó el innovador programa mientras buscaba precedentes legales que respaldaran el caso de un cliente contra la aerolínea colombiana Avianca por una lesión sufrida en un vuelo de 2019.

El chatbot, que ha fascinado al mundo con su producción de respuestas similares a ensayos a las indicaciones de los usuarios, sugirió varios casos relacionados con accidentes de aviación que Schwartz no había podido encontrar a través de los métodos habituales utilizados en su bufete de abogados.

El problema era que varios de esos casos no eran reales o involucraban aerolíneas que no existían.

Schwartz le dijo al juez de distrito de los EE. UU. P. Kevin Castel que estaba «operando bajo una idea errónea… de que este sitio web estaba obteniendo estos casos de alguna fuente a la que yo no tenía acceso».

Dijo que «fracasó miserablemente» al hacer una investigación de seguimiento para asegurarse de que las citas fueran correctas.

“No sabía que ChatGPT podía inventar casos”, dijo Schwartz.

Microsoft ha invertido unos mil millones de dólares en OpenAI, la empresa detrás de ChatGPT.

Recomendado:  ¿Qué es Auto-GPT y en qué se diferencia de ChatGPT?

Su éxito, que demuestra cómo la inteligencia artificial podría cambiar la forma en que los humanos trabajan y aprenden, ha generado temores en algunos. Cientos de líderes de la industria firmaron una carta en mayo que advierte que “mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como pandemias y guerras nucleares”.

El juez Castel parecía desconcertado y perturbado por el hecho inusual y decepcionado porque los abogados no actuaron rápidamente para corregir las citaciones legales falsas cuando los abogados de Avianca y el tribunal les alertaron por primera vez sobre el problema. Avianca señaló la jurisprudencia falsa en una presentación de marzo.

El juez confrontó a Schwartz con un caso legal inventado por el programa de computadora. Inicialmente se describió como un caso de muerte por negligencia presentado por una mujer contra una aerolínea, solo para transformarse en un reclamo legal sobre un hombre que perdió un vuelo a Nueva York y se vio obligado a incurrir en gastos adicionales.

«¿Podemos estar de acuerdo en que eso es un galimatías legal?» Preguntó Castel.

Schwartz dijo que pensó erróneamente que la presentación confusa se debió a extractos extraídos de diferentes partes del caso.

Cuando Castel terminó su interrogatorio, le preguntó a Schwartz si tenía algo más que decir.

“Me gustaría disculparme sinceramente”, dijo Schwartz.

Agregó que había sufrido personal y profesionalmente como resultado del error y se sentía “avergonzado, humillado y extremadamente arrepentido”.

Dijo que él y la empresa en la que trabajaba, Levidow, Levidow & Oberman, habían implementado medidas de seguridad para garantizar que nada similar volviera a suceder.

Recomendado:  Un informático con ambición de biólogo: avance de la humanidad | enero 2023

LoDuca, otro abogado que trabajó en el caso, dijo que confiaba en Schwartz y que no revisó adecuadamente lo que había recopilado.

Después de que el juez leyera en voz alta partes de un caso citado para mostrar lo fácil que era discernir que se trataba de “tonterías”, LoDuca dijo: “Nunca me di cuenta de que se trataba de un caso falso”.

Dijo que el resultado «me duele muchísimo».

Ronald Minkoff, abogado del bufete de abogados, le dijo al juez que la presentación “resultó de un descuido, no de mala fe” y no debería dar lugar a sanciones.

Dijo que históricamente los abogados han tenido dificultades con la tecnología, particularmente con la nueva tecnología, “y no se está volviendo más fácil”.

«Señor. Schwartz, alguien que apenas realiza investigaciones federales, optó por utilizar esta nueva tecnología. Pensó que estaba tratando con un motor de búsqueda estándar”, dijo Minkoff. “Lo que estaba haciendo era jugar con munición real”.

Daniel Shin, profesor adjunto y subdirector de investigación del Centro de Tecnología Legal y Judicial de la Facultad de Derecho William & Mary, dijo que presentó el caso Avianca durante una conferencia la semana pasada que atrajo a decenas de participantes en persona y en línea de representantes estatales y federales. tribunales de EE. UU., incluido el tribunal federal de Manhattan.

Dijo que el tema causó conmoción y desconcierto en la conferencia.

“Estamos hablando del Distrito Sur de Nueva York, el distrito federal que maneja los grandes casos, desde el 11 de septiembre hasta todos los grandes delitos financieros”, dijo Shin. “Esta fue la primera instancia documentada de posible mala conducta profesional por parte de un abogado que usa IA generativa”.

Recomendado:  ¿Qué hay detrás de la campaña de miedo sobre la IA?

Dijo que el caso demostró cómo los abogados podrían no haber entendido cómo funciona ChatGPT porque tiende a alucinar, hablando de cosas ficticias de una manera que suena realista pero no lo es.

“Destaca los peligros de usar tecnologías de inteligencia artificial prometedoras sin conocer los riesgos”, dijo Shin.

El juez dijo que dictaminará sobre las sanciones en una fecha posterior.