Saltar al contenido

Los desafíos éticos de la práctica legal asistida por IA: abogados y ChatGPT | Adler Pollock y Sheehan PC

26 de junio de 2023

La inteligencia artificial (“IA”) no es del todo ajena a la profesión jurídica. Las bases de datos de investigación legal impulsadas por IA, la automatización de eDiscovery y los servicios de inteligencia de jurados son solo algunos ejemplos de cómo los abogados han utilizado la IA en las últimas décadas para aumentar la eficiencia y optimizar las tareas rutinarias de alto volumen. Dado que AI mantiene una presencia fija en el ejercicio de la abogacía, las obligaciones éticas y profesionales de los abogados se ven continuamente cuestionadas. Una forma de IA que ha planteado importantes riesgos éticos desde su lanzamiento inicial en noviembre de 2022 es el chatbot de modelo de lenguaje de OpenAI, ChatGPT. El chatbot genera respuestas similares a las humanas a las consultas ingresadas por un usuario, lo que plantea una serie de preocupaciones según las Reglas Modelo de Conducta Profesional de ABA.

La regla modelo 1.1 requiere que los abogados brinden una representación competente que abarque “el conocimiento legal, la habilidad, la minuciosidad y la preparación razonablemente necesarios para la representación”.[1] El cumplimiento de esta regla se vuelve problemático para los abogados que confían exclusivamente en ChatGPT porque las respuestas generadas por IA se basan en el estudio del modelo de datos de texto de una colección de fuentes indefinidas, incluidas las consultas de los usuarios. Tales respuestas, por lo tanto, no son el producto del conocimiento legal, la habilidad y la minuciosidad.

El comentario 8 de la regla modelo 1.1 también requiere que los abogados se mantengan al tanto de los beneficios y riesgos asociados con la tecnología relevante.[2] Si bien la Regla modelo 1.1 de Rhode Island no incluye el comentario 8, es probable que el estado interprete que la obligación de los abogados de brindar una representación competente incluye la obligación de estar familiarizado con la tecnología. ChatGPT presenta un riesgo significativo para los abogados que buscan brindar una representación competente considerando que el chatbot «puede, en algunas situaciones, dar como resultado un resultado incorrecto que no refleja con precisión personas, lugares o hechos reales».[3] Por ejemplo, un juez federal de Manhattan sancionó recientemente a un abogado después de que su presentación ante el tribunal estuviera repleta de citaciones de casos inexistentes generados por ChatGPT.[4] En este caso, los beneficios de comodidad y ahorro de tiempo de ChatGPT se vieron superados por el riesgo de recibir información inexacta y descaradamente falsa.

Además, al usar ChatGPT o cualquier modelo de IA, surgen problemas de seguridad y confidencialidad. La regla modelo 1.6 requiere que los abogados mantengan la confidencialidad del cliente y “hagan esfuerzos razonables para evitar la divulgación inadvertida o no autorizada, o el acceso no autorizado a, información relacionada con la representación de un cliente”.[5] La política de privacidad de OpenAI deja en claro que la empresa guarda la información personal y de comunicación de cada usuario que se ingresa en el sistema.[6] Significativamente, OpenAI puede proporcionar esa información a terceros sin previo aviso al usuario.[7] En ausencia de garantías de confidencialidad, la prudencia dicta que los abogados no compartan información confidencial con el chatbot para cumplir con las Reglas modelo de ABA.

Recomendado:  El futuro de la creatividad, presentado por la inteligencia artificial

El 14 de marzo de 2023, Open AI lanzó GPT-4 que se dice que es «más confiable, creativo y capaz de manejar instrucciones mucho más matizadas» que su predecesor, GPT-3.5.[8] Open AI probó el modelo utilizando numerosos puntos de referencia académicos y profesionales, incluido el examen de barra uniforme. GPT-4 marcó en los 90el percentil de los examinados de la barra.[9] Al no haber realizado ningún entrenamiento específico para el examen, GPT-4 representa una marcada mejora con respecto a su predecesor que obtuvo una puntuación de 10el percentil de los examinados de la barra.[10] No obstante, Open AI admite que la tecnología está lejos de ser perfecta y es menos capaz que los humanos en escenarios del mundo real. [11]

En última instancia, si bien los abogados no pueden ignorar los avances inevitables en la IA generativa, deben examinar los resultados del sistema ChatGPT y la IA con ojo crítico y pensar dos veces antes de comprometer su juicio profesional o experiencia legal por la conveniencia de la IA.

[1] Modificación. Reglas Prof. Cond. § 1.1

[2] Identificación. cmt. 8

[3] Los Términos de uso de OpenAI se pueden encontrar aquí: https://openai.com/policies/terms-of-use (actualizado el 24 de marzo de 2023)

[4] Molly Bohannon, abogado usó ChatGPT en la corte y citó casos falsos. Un juez está considerando sancionesForbes (8 de junio de 2023) https://www.forbes.com/sites/mollybohannon/2023/06/08/lawyer-used-chatgpt-in-court-and-cited-fake-cases-a-judge- está-considerando-sanciones/?sh=7208ae577c7f

[5] Modificación. Reglas Prof. Cond. § 1.6

[6] La Política de privacidad de OpenAI se puede encontrar aquí: https://openai.com/policies/privacy-policy (actualizado el 27 de abril de 2023)

[7] Identificación.

[8] El informe de investigación GPT-4 de OpenAI se puede encontrar aquí: https://openai.com/research/gpt-4 (publicado el 14 de marzo de 2023)

[9] Identificación.

[10] Identificación.

[11] Identificación.

Recomendado:  PERRONE ROBOTICS PRESENTA LA FUSIÓN INNOVADORA DEL SISTEMA OPERATIVO GPT AI Y MAX ROBOTICS PARA VEHÍCULOS AUTÓNOMOS