La IA se está volviendo cada vez más frecuente en la sociedad, y muchas personas se preguntan cómo afectará a la ley. Cómo la inteligencia artificial está impactando nuestras leyes y qué podemos esperar para futuras interacciones tecnológicas / legales.
La conversación en torno a la relación entre la inteligencia artificial y la ley también toca con bastante claridad la capacidad de confiar en la inteligencia artificial para tomar decisiones justas y mejorar la entrega de equidad y justicia del sistema legal.
En este artículo, comparto ideas de mis conversaciones sobre este tema con Joilson Melo, un experto en derecho brasileño y programador cuya devoción por la equidad y la justicia llevó a un cambio histórico en el sistema legal brasileño en 2019, este cambio afectó principalmente al sistema que controla todos los procesos procesados digitalmente en Brasil, el PJe (Proceso Judicial Electrónico).
Como estudiante de derecho, Melo presentó una solicitud de acción en el Consejo Nacional de Justicia (CNJ) contra la Corte de Justicia de Mato Grosso, lo que resultó en una decisión que permitió a los ciudadanos presentar solicitudes en los tribunales por vía electrónica sin abogado y dentro del Tribunal Especial. observando el valor del caso, para que no supere los 20 salarios mínimos. La petición de Melo reveló disposiciones en la ley que permitían esto y su victoria hizo cumplir esas disposiciones. Los resultados para los desfavorecidos y aquellos que no podían pagar un abogado han sido inmensos.
Sobre la relación entre AI y la Ley, Melo permanece un poco indeciso;
“El propósito de la ley es justicia, equidad y equidad”, dice Melo.
“Cualquier tecnología que pueda mejorar eso es bienvenida en el ámbito legal. Ya se ha demostrado que la Inteligencia Artificial puede ser tan sesgada como los datos con los que se alimenta. Esto instantáneamente nos impone una mayor carga de atención para garantizar que se adopte a través de un proceso cuidadoso en el espacio legal y la sociedad en general «.
AI y decisiones judiciales
El uso de la inteligencia artificial para predecir los veredictos del jurado existe desde hace bastante tiempo, pero no está claro si un algoritmo puede predecir con precisión el comportamiento humano. También se han realizado estudios que demuestran que los algoritmos de aprendizaje automático se pueden utilizar para ayudar a los jueces a tomar decisiones de sentencia en función de factores como las tasas de reincidencia.
En teoría, esto parece resolver un problema evidente, se supone que las herramientas de algoritmo predicen el comportamiento delictivo y ayudan a los jueces a tomar decisiones basadas en recomendaciones basadas en datos y no en sus instintos.
Sin embargo, como explica Melo, esto también presenta algunas preocupaciones profundas para los expertos legales, “las herramientas de evaluación de riesgos de IA se ejecutan en algoritmos que están entrenados en datos históricos de delitos. En países como Estados Unidos y muchas otras naciones, las fuerzas del orden ya han sido acusadas de atacar a ciertas minorías y esto se demuestra por el alto número de estas minorías en las cárceles. Si se alimentan los mismos datos, la IA estará igualmente sesgada «.
Melo continúa: “Además, los algoritmos convierten las percepciones correlativas en percepciones causales. Si los datos muestran que un vecindario en particular se correlaciona con una alta reincidencia, no prueba que este vecindario haya causado reincidencia en ningún caso dado. Estas son cosas que un juez debería poder deducir de sus observaciones. Cualquier cosa menos está muy lejos de la justicia, a menos que encontremos una manera de curar los datos «.
IA y protección de datos
A medida que continuamos desarrollando tecnologías más inteligentes, la protección de datos se convierte en un tema cada vez más importante. Esto incluye proteger la información privada de los piratas informáticos y cumplir con los estándares GDPR en todas las industrias que recopilan datos personales sobre sus clientes.
Aparte del RGPD, no muchos países han aprobado leyes específicas que afecten al big data. Según la Encuesta de Tecnología 2018 de la Asociación Internacional de Tecnología Legal, el 100 por ciento de los bufetes de abogados con 700 o más abogados utilizan herramientas de inteligencia artificial o están llevando a cabo proyectos de inteligencia artificial.
Si esta tendencia continúa y se encuentra con la voluntad de los tribunales y los jueces de adoptar la IA, eventualmente entrarían en la categoría de empresas que deben cumplir con las normas de protección de datos. El privilegio de cliente / abogado podría estar en riesgo de un hackeo y también de decisiones judiciales.
La necesidad de leyes locales estrictas que ayuden a regular cómo se reciben y administran los datos nunca ha sido más clara, y es por eso que es impactante que muchos gobiernos no hayan actuado más rápido.
“Muchos gobiernos tienen una alianza impía con los gigantes tecnológicos y las empresas que más se ocupan de los datos”, dice Melo.
“Estas empresas están a la vanguardia del desarrollo nacional y son las propuestas nacionales de inversión más atractivas. Los líderes no quieren reprimirlos o ser vistos como un impedimento para el avance tecnológico. Sin embargo, si la ley debe aplicarse por igual, los gobiernos deberían seguir el ejemplo del RGPD y comenzar ahora antes de que veamos una violación de la privacidad peor de lo que ya hemos visto «.
Preguntas legales en torno a la IA
A medida que la inteligencia artificial se arraiga más en nuestras vidas, también lo hacen los problemas legales que la rodean.
Una de las cuestiones legales más frecuentes es si se debería permitir que las máquinas posean vehículos autónomos y armas mortales. Los coches autónomos ya están en el mercado, pero tienen un largo camino por recorrer antes de que puedan reemplazar a los conductores humanos. La tecnología aún no se ha perfeccionado y requerirá grandes avances antes de que podamos decir con certeza que estos vehículos son seguros para la sociedad en general.
Las preocupaciones más importantes sobre estos aspectos se refieren a la facilidad con la que estos algoritmos pueden ser pirateados e influenciados externamente.
IA y armas / crímenes de guerra: La posibilidad de sistemas de armas autónomos se ha promocionado en muchas esferas como una forma poderosa de identificar y eliminar amenazas. Esto se ha enfrentado a un fuerte retroceso por razones obvias. La empatía, la concesión y un cierto enfoque general siempre han jugado un papel crucial en la guerra y la seguridad fronteriza. Estos son rasgos que todavía no podemos inculcar en un algoritmo.
Preguntas sobre derechos humanos: Una de las principales cuestiones que se plantean en el ámbito de los derechos humanos es la relativa a la transparencia algorítmica. Ha habido informes de personas que han perdido sus trabajos, se les han negado préstamos y se les ha puesto en zonas de exclusión aérea sin otra explicación que «fue una determinación algorítmica».
Si este patrón persiste, el riesgo para los derechos humanos es enorme. Las cuestiones de las vulnerabilidades de la seguridad cibernética, el sesgo de la IA y la falta de contestabilidad también son preocupaciones que afectan a los derechos humanos.
La preocupación de Melo parece más centrada en la ley y cómo se puede preservar como árbitro de la justicia y ejecutor de los derechos humanos y, con razón, señala las implicaciones de dejar estas preguntas sin respuesta;
“Decidir no adoptar la IA en la sociedad y los sistemas legales es decidir no avanzar como civilización”, comenta Melo.
“Sin embargo, decidir adoptar la IA a ciegas nos haría retroceder a una civilización bárbara. Creo que el mejor enfoque es adoptar un enfoque gradual hacia la adopción; dar un paso, detectar los problemas, eliminarlos y luego dar otro paso «.
Futuro de la IA y la ley
La ley y los profesionales del derecho pueden ganar mucho con una adecuada adopción de la IA en el sistema legal. La investigación legal es un área en la que AI ya ha comenzado a ayudar. La IA puede agilizar los miles de resultados que una búsqueda en Internet o en un directorio proporcionaría de otro modo, ofreciendo un puñado más pequeño y digerible de autoridades relevantes para la investigación legal. Esto ya está resultando útil y con un aprendizaje automático más específico solo mejoraría.
Los posibles beneficios continúan; borradores automatizados de documentos y contratos, revisión de documentos y análisis de contratos son algunos de los que se consideran inminentes.
Muchos incluso han considerado las posibilidades de la IA para ayudar con funciones más administrativas, como el nombramiento de funcionarios y personal, la administración del personal y la concienciación de los ciudadanos sobre sus derechos legales.
Un futuro sin IA parece sombrío y laborioso para la mayoría de las industrias, incluida la legal, y aunque debemos seguir adelante, debemos ser cautelosos con nuestras estrategias de adopción. Este punto se expresa mejor en las palabras de Joilson Melo; “Las posibilidades son infinitas, pero la carga del cuidado es muy pesada, debemos actuar y evolucionar con cautela”.