Saltar al contenido

Opinión: un campo minado legal espera a las empresas que buscan utilizar inteligencia artificial

16 de febrero de 2023

El crecimiento en el uso de la IA generativa viene con nuevas preguntas en torno al uso de estas tecnologías en desarrollo, particularmente en el área de la ley de derechos de autor.Martin Meissner/La Prensa Asociada

Arjun Gupta es estudiante de derecho y presidente de la Asociación de Estudiantes JD-MBA de la Universidad de Ottawa.

En los últimos años, la inteligencia artificial (IA) ha estado causando sensación en varias industrias, desde la atención médica hasta las artes. El auge de las herramientas de IA generativa, que utilizan grandes cantidades de datos existentes, como audio, código, imágenes, texto, simulaciones y videos para producir contenido original, no es una excepción. Estas herramientas incluyen ChatGPT, que ha sido anunciada como la «tecnología de propósito general más importante desde la rueda» por el ex secretario del Tesoro de EE. UU., Lawrence Summers.

Pero con este crecimiento surgen nuevas preguntas en torno al uso de estas tecnologías, particularmente en el área de la ley de derechos de autor.

A medida que las empresas canadienses navegan por los riesgos legales de la IA generativa, deben tener en cuenta que se trata de un problema en desarrollo y que las leyes aún no son lo suficientemente sofisticadas para abordar los desafíos que plantea esta tecnología en rápida evolución.

Este mes, Getty Images presentó una demanda contra Stability AI, con sede en Londres, alegando que copió y procesó ilegalmente millones de imágenes de la base de datos de Getty para generar obras artísticas para beneficio privado.

Las herramientas de IA como ChatGPT y Lensa se están extendiendo como un reguero de pólvora en línea, alimentando los debates sobre ética.

ChatGPT ha convencido a los usuarios de que piensa como una persona. A diferencia de los humanos, no tiene sentido del mundo real.

Esto ha hecho sonar las alarmas para las empresas canadienses que están invirtiendo en tecnologías de IA y buscan aclaraciones sobre los límites de las leyes de derechos de autor frente a tales tecnologías de IA emergentes.

Si bien la demanda de Getty se centra principalmente en cuestiones de licencia, es probable que sea la primera de muchas relacionadas con la IA generativa y su impacto en la doctrina de la ley de derechos de autor. De hecho, la gran cantidad de datos necesarios para entrenar las herramientas de IA, como ChatGPT, que se desarrolló en base al repositorio de texto completo de Wikipedia, hace que sea poco práctico para las empresas de IA pagar licencias en cientos de millones de fuentes de datos.

Entonces, la pregunta es si el riesgo de violar o infringir las leyes de derechos de autor se ve compensado por la ventaja económica de la que los primeros usuarios podrían beneficiarse al invertir y aplicar herramientas generativas de IA.

Una posible forma de avanzar es que los tribunales amplíen la aplicación del concepto de «trato justo» en la ley de derechos de autor para incluir tecnologías de IA.

Actualmente, el trato justo permite el uso de obras protegidas por derechos de autor con fines de investigación, pero no con fines comerciales. Sin embargo, si el aprendizaje automático fuera capturado bajo una definición más amplia de «trato justo» en el que se reconocieran los mayores beneficios para la sociedad del avance de las tecnologías de IA, podría proporcionar un refugio seguro para que las empresas continúen invirtiendo en su desarrollo.

Un claro ejemplo de tal beneficio es el uso exitoso de la IA en la detección del cáncer de piel. Una herramienta de inteligencia artificial entrenada en un conjunto de datos de miles de imágenes ha mostrado recientemente la misma precisión en la detección del cáncer de piel que un panel de dermatólogos expertos. Esto podría tener implicaciones sustanciales para la detección temprana de cánceres de piel a un costo reducido, particularmente para las personas que viven en áreas remotas o de bajos ingresos. Sin embargo, sin claridad sobre el uso legal de las imágenes involucradas en el entrenamiento de tales modelos de IA, puede ocurrir un efecto escalofriante, lo que resulta en menos avances de esta naturaleza.

La cuestión del contenido original y el grado de participación humana necesaria para que una obra esté protegida por la ley de derechos de autor también es relevante.

En CCH Canadian Ltd. v. Law Society of Upper Canada, un caso de la Corte Suprema de Canadá de 2004 que involucró el umbral de originalidad y los límites del trato justo en la ley de derechos de autor, la entonces presidenta del tribunal Beverley McLachlin estableció un enfoque flexible de la originalidad, sosteniendo que una obra debe ser producto de un ejercicio de “habilidad y juicio” para ser considerada original.

Es posible que el contenido generado por IA no pase esta prueba. Por lo tanto, corresponde a los tribunales aclarar si la «habilidad y el juicio» humanos involucrados en la programación de la red neuronal de una máquina antes de su entrenamiento cumplen con los estándares de la prueba de originalidad.

En Gran Bretaña, esta cuestión ya se ha abordado. El artículo 9 (3) de la Ley de derechos de autor, diseños y patentes establece que “en el caso de una obra literaria, dramática, musical o artística generada por computadora, se considerará que el autor es la persona que realiza los arreglos necesarios para se emprende la creación de la obra.”

Los tribunales canadienses harían bien en hacer lo mismo. Sin la protección de derechos de autor otorgada a las obras «originales», las empresas canadienses deben ser conscientes de que cualquier contenido nuevo generado por sus herramientas de IA podría volverse susceptible de ser utilizado por competidores sin una vía de recurso legal.

Una posible solución es que las empresas utilicen sus propios conjuntos de datos o verifiquen que los conjuntos de datos externos utilizados para entrenar su IA se hayan obtenido legalmente, tal vez haciendo que un proveedor externo firme un formulario de divulgación que indique explícitamente que se obtuvieron los datos de entrenamiento. legalmente. Este enfoque proactivo podría ayudar a las empresas a reducir los riesgos que implica el uso de IA generativa y garantizar que operan dentro de los límites de la ley. Sin embargo, todavía no hay garantía.

Si bien el futuro de la IA es, sin duda, emocionante, es igualmente importante que las empresas sean conscientes de las implicaciones legales del uso de estas tecnologías, para que puedan seguir innovando y al mismo tiempo respetar los derechos de los demás.

El auge de la IA generativa sirve como una llamada de atención para que las empresas canadienses se mantengan informadas, a la vanguardia y del lado correcto de la ley. Los beneficios de la IA son numerosos, pero es esencial que las empresas canadienses presten mucha atención al resultado de decisiones y controversias importantes, como Getty Images, a medida que se desarrollan. Al hacerlo, pueden tomar las medidas necesarias para protegerse a sí mismos y a sus intereses.

Recomendado:  La inteligencia artificial y la máquina de moléculas unen fuerzas para generalizar la química automatizada