Saltar al contenido

¿Aliado o enemigo? Cuando se trata de la profesión legal, GPT-4 puede ser un poco de ambos – Noticias

2 de mayo de 2023

Cuando se lanzó GPT-4, la última versión de los sistemas de modelo de lenguaje de OpenAI, a mediados de marzo, varios aspirantes a abogados y profesores de derecho lo usaron para tomar el examen de la barra. El chatbot del modelo de lenguaje grande aprobó todas las materias y se desempeñó mejor que el 90 % de los examinados humanos.

Esta noticia fue un poco impactante, sin duda, y generó numerosas preguntas. Prepararse para el examen de la barra, para la mayoría de los humanos sin ayuda, requiere 10 horas de estudio diario durante casi tres meses (después de completar tres años de educación legal). De repente, una herramienta de inteligencia artificial (IA) puede pasar el listón fácilmente.

¿Qué significa este desarrollo para los profesionales del derecho? ¿Cómo impactará positiva o negativamente el avance de los modelos de lenguaje en la forma en que los profesionales del derecho aprenden, enseñan y practican en el nuevo panorama tecnológico?

Actualmente, hay conversaciones en curso sobre cómo los modelos de lenguaje pueden ayudar de manera beneficiosa con la redacción legal (como producir los primeros borradores de documentos legales como contratos y realizar investigaciones legales). Un abogado junior, por ejemplo, puede ahorrar tiempo al usar GPT-4 para ubicar estatutos y regulaciones legales relevantes, identificar posibles contradicciones en documentos y señalar argumentos perdidos. Con esta asistencia, el abogado puede concentrarse en tareas de mayor nivel que requieren el tipo de pensamiento crítico y habilidades analíticas que los modelos lingüísticos aún no tienen la capacidad de dominar.

Los oficiales de cumplimiento pueden usar GPT-4 para automatizar la creación de plantillas de documentos estandarizados que garanticen la coherencia en el formato, el lenguaje y la estructura. Debido a que los estatutos y reglamentos legales suelen estar plagados de jerga esotérica, GPT-4 se puede utilizar para simplificar el lenguaje, brindar explicaciones de términos complejos y resumir casos extensos.

Recomendado:  El Departamento de Neurocirugía de Brown prueba modelos de inteligencia artificial en preguntas escritas y orales del examen de la junta de neurocirugía

Los modelos de lenguaje también pueden ayudar a los agentes del orden público a realizar evaluaciones de riesgos. Los oficiales pueden ingresar datos de fuentes internas como correos electrónicos de empleados y registros de chat para identificar si hay alguna violación de cumplimiento (como patrones de fraude, corrupción u otra mala conducta).

Todos estos ejemplos positivos, por supuesto, no son a prueba de fallas. Existen preocupaciones éticas, y la posible violación de la privacidad es uno de los mayores problemas relacionados con el modelo lingüístico entre abogados y bufetes de abogados.

Algunas firmas legales y de consultoría ya cuentan con políticas que restringen o prohíben el uso de modelos de lenguaje, debido a la posibilidad de que las herramientas puedan revelar información confidencial sin darse cuenta y correr el riesgo de filtraciones de datos o ataques cibernéticos. Sin embargo, es probable que los proveedores puedan resolver este problema proporcionando complementos de modelos de lenguaje que pueden almacenar la información confidencial de una empresa en una base de datos propietaria, en lugar de enviarla a modelos de lenguaje oa terceros.

Otro problema es que las inexactitudes legales generadas por los modelos de lenguaje podrían hacer que los abogados sean responsables de los errores. Los clientes confían en que sus abogados actuarán de manera competente y diligente en su mejor interés. Si un abogado se basa en un modelo de lenguaje sin revisar y verificar minuciosamente el resultado generado, esto podría dar lugar a demandas por negligencia.

Los abogados deben utilizar modelos lingüísticos con cautela para realizar tareas que requieren una gran experiencia jurídica. Por ejemplo, cuando se les pide que escriban un ensayo legal, los modelos de lenguaje han demostrado que aún no son del todo competentes para producir los análisis legales más creíbles («todavía» es la palabra operativa aquí; es solo cuestión de tiempo antes de que la próxima generación de modelos de lenguaje supera a GPT-4).

Recomendado:  IA y sostenibilidad: ¿dónde estamos y qué sigue? | Noticias

Dada la prevalencia y el impacto de estos modelos de lenguaje, los profesores de derecho deben adaptar sus métodos de enseñanza en consecuencia. Los instructores deben cultivar una mentalidad adaptativa e innovadora, alentando a los estudiantes a adoptar nuevas tecnologías. Mientras tanto, los instructores deben enfatizar las implicaciones éticas y explorar el uso apropiado de estas herramientas.

Para preparar mejor a los estudiantes de derecho para la práctica legal, los instructores deben identificar y enseñar conjuntos de habilidades clave, como la ingeniería de avisos legales, que implica enmarcar adecuadamente las entradas y salidas de las herramientas de IA para generar resultados precisos.

Las facultades de derecho pueden integrar cursos de IA en el plan de estudios existente, brindando oportunidades de experiencia práctica con modelos de lenguaje y otras herramientas de IA para investigación legal, redacción de documentos y análisis legal. Los cursos que conducen a certificaciones en el uso de tecnología de modelo de lenguaje pueden ayudar a los estudiantes a encontrar empleo después de graduarse.

Entonces, si bien los modelos de lenguaje como GPT-4 pueden presentar desafíos éticos y relacionados con la privacidad, en última instancia brindan enormes oportunidades para enseñar y practicar leyes. Con precaución, los profesionales legales sin duda pueden hacer que estas herramientas funcionen a su favor.

Este artículo se publicó originalmente en el sitio web del Colegio de Abogados de Florida.


Jiaying Jiang 2 de mayo de 2023