Saltar al contenido

California propone legislación sobre inteligencia artificial

24 de abril de 2023

El uso de inteligencia artificial generativa («IA») por parte de empresas y consumidores en los últimos meses ha aumentado drásticamente, impulsado en gran parte por la enorme visibilidad de ChatGPT como un nuevo dispositivo de IA, el rendimiento mejorado de otras herramientas y, en general, comerciales más amplios. disponibilidad. Está claro que los regímenes legales existentes en los Estados Unidos solo regulan la tecnología en los márgenes. Ha habido cada vez más llamados a regular la tecnología en los Estados Unidos de manera integral. Aunque el senador Chuck Schumer (D-NY) está trabajando en un marco para regular la IA a nivel nacional, ese marco sigue siendo de alto nivel y se basa en principios, sin entrar en los detalles que deberían ser parte de una propuesta legislativa. Al mismo tiempo, los reguladores claramente están observando el desarrollo y uso de estas herramientas incluso sin requisitos legales específicos.

Ingrese a California, donde los legisladores introdujeron recientemente AB 311, que establece un marco para regular las «Herramientas de decisión automatizadas». Algunos de los requisitos reflejan prácticas y protecciones técnicas establecidas en el documento de la Casa Blanca. Plan para una declaración de derechos de la IA, publicado en octubre de 2022, incluida la garantía de sistemas seguros y efectivos, protecciones contra la discriminación algorítmica, notificación y explicación, y alternativas humanas. Aunque se encuentra en una etapa temprana del proceso legislativo, un análisis de este proyecto de ley nos da una idea de cómo los legisladores pueden abordar la regulación de esta tecnología en el futuro. Si la ley avanza a través de la legislatura de California, tiene el potencial de influir en cómo otros estados abordan el tema. También puede influir en la elaboración de normas de la Agencia de Protección de la Privacidad de California sobre los sistemas de toma de decisiones automatizada (ADM) en virtud de la Ley de Derechos de Privacidad de California (CPRA).

El proyecto de ley de California se enfoca en ciertos tipos de herramientas de IA, aquellas que están “específicamente desarrolladas y comercializadas o específicamente modificadas para tomar o ser un factor de control en la toma de decisiones consecuentes”. Las decisiones consecuentes son aquellas que afectarían ciertos derechos y oportunidades individuales enumerados, como el empleo, la educación, la vivienda, la atención médica o el seguro médico y los servicios financieros. El proyecto de ley está dirigido a aquellos que usan las herramientas para tomar decisiones consecuentes («implementadores»), aunque eximiría a los implementadores muy pequeños y a aquellos que crean dichas herramientas («desarrolladores»). Esto refleja una preocupación común de los reguladores: el impacto potencialmente discriminatorio de las herramientas de IA en las decisiones «importantes».

Una descripción general de los requisitos del proyecto de ley se encuentra a continuación:

Recomendado:  Solo nueve de los 116 profesionales de IA en películas clave son mujeres, según un estudio | Inteligencia artificial (IA)

Evaluaciones de impacto. Tanto los implementadores como los desarrolladores deben realizar evaluaciones de impacto. Similar a las evaluaciones de impacto de privacidad en espíritu, la función de las evaluaciones es proporcionar transparencia en torno al uso de la herramienta, así como fomentar un enfoque reflexivo para el uso de la herramienta y garantizar que se implementen suficientes medidas de seguridad antes de su uso.

Entre otras cosas, las evaluaciones de impacto deben revelar qué información personal se procesará, explicar el propósito de la herramienta y proporcionar un resumen de los resultados de la herramienta y cómo se utilizan para tomar una decisión consecuente. Las evaluaciones también deben proporcionar un análisis de los posibles impactos adversos en ciertas clasificaciones protegidas (p. ej., sexo, raza, etnia, edad, discapacidad, etc.), una descripción de las salvaguardas o medidas que se implementaron o se implementarán para abordar problemas razonablemente previsibles. riesgos de discriminación algorítmica, y una descripción de cómo un humano usará o monitoreará la herramienta, así como también cómo se ha evaluado o se evaluará la validez o relevancia de la herramienta.

Las evaluaciones de impacto deben proporcionarse al Departamento de Derechos Civiles dentro de los 60 días posteriores a la finalización. El Departamento de Derechos Civiles puede entablar una acción de ejecución administrativa contra cualquier desarrollador o implementador que no presente la evaluación de impacto y solicitar no más de $10,000 por infracción. Si bien el proyecto de ley no parece otorgar al Departamento de Derechos Civiles la capacidad de hacer cumplir si la evaluación de impacto cumple o no sustancialmente con la ley propuesta, permite que el Departamento de Derechos Civiles comparta evaluaciones de impacto con otras entidades estatales «según corresponda», lo cual podría permitirle compartir una evaluación de impacto con el Fiscal General de California u otros abogados públicos.

Recomendado:  Australia necesita enfrentarse a los peligros de la tecnología de reconocimiento facial.

Aviso. Los implementadores, en el momento en que se usa la herramienta para tomar una decisión consecuente, deben notificar a las personas sobre por qué y cómo se usa la herramienta y proporcionar una descripción en lenguaje sencillo de la herramienta que incluya una divulgación de cualquier componente humano y cómo cualquier componente automatizado. componente se utiliza para informar una decisión consecuente.

Solicitudes de exclusión. El proyecto de ley proporciona un mecanismo para que las personas soliciten que no estén sujetos a una toma de decisiones totalmente automatizada y, en cambio, estén sujetos a un proceso de selección alternativo o acomodo cuando sea técnicamente factible.

Divulgación del desarrollador. El proyecto de ley también impone obligaciones de divulgación a los desarrolladores. Deben poner a disposición una declaración que explique el uso previsto de la herramienta y las limitaciones conocidas (incluidos los riesgos razonablemente previsibles de discriminación algorítmica de su uso previsto), así como el tipo de datos utilizados para programar o entrenar la herramienta. La declaración también debe incluir una explicación de cómo se evaluó la validez y explicabilidad de la herramienta.

Gobernancia. Aquellos que desarrollen y usen herramientas de decisión automatizadas deben tener un programa de gobierno que contenga salvaguardas administrativas y técnicas razonables para abordar los riesgos razonablemente previsibles de discriminación algorítmica asociada con el uso o el uso previsto de la herramienta de decisión automatizada. El proyecto de ley incluye una serie de factores que deben considerarse como parte de la determinación de razonabilidad, incluido el uso previsto de la herramienta y la viabilidad técnica y el costo de los medios disponibles para abordar los riesgos asociados. Los requisitos de gobernanza en el proyecto de ley se asemejan a los programas de gobernanza de privacidad y seguridad de la información: el programa debe ser supervisado por al menos una persona, debe haber una revisión anual de políticas, prácticas y procedimientos, y debe haber una evaluación y razonable. ajustes a las salvaguardas administrativas y técnicas existentes a la luz de los cambios.

Recomendado:  Opinión: un campo minado legal espera a las empresas que buscan utilizar inteligencia artificial

Aplicación. El proyecto de ley permite que el Fiscal General de California y otros abogados públicos en el estado inicien una acción civil contra un desarrollador o implementador por medidas cautelares, medidas declaratorias y honorarios razonables de abogados y costos de litigio, aunque existe la oportunidad de subsanar.

Derecho Privado de Acción. El proyecto de ley incluye un derecho privado de acción contra los implementadores por usos que resultan en discriminación algorítmica, aunque el demandante tiene la carga de demostrar que el uso de la herramienta de decisión automatizada por parte del implementador resultó en una discriminación algorítmica que causó un daño real a la persona que inició la acción civil. .

Queda por ver si esta legislación en particular avanza de alguna manera significativa (y casi con seguridad experimentará cambios significativos a medida que avanza en el proceso legislativo), pero estamos seguros de que veremos más propuestas a nivel estatal que buscan regular AI. Regularmente ayudamos a nuestros clientes a navegar cómo implementar y desarrollar IA a pesar de la falta actual de requisitos legales y una guía clara, y nos complace hacer lo mismo por usted mientras considera cómo hacer que la IA funcione para su organización.