Saltar al contenido

Los esfuerzos federales de inteligencia artificial se impulsarán enormemente para 2021 NDAA | Wiley Rein LLP

9 de enero de 2021

La Ley de Autorización de Defensa Nacional para el año fiscal 2021 (NDAA 2021), que fue aprobada por veto presidencial el 1 de enero, representa un gran paso adelante para la política estadounidense de inteligencia artificial en áreas que van mucho más allá de la defensa nacional. Incorpora una serie de propuestas legislativas de inteligencia artificial que remodelarán el enfoque del gobierno durante los próximos dos años, como parte de un énfasis más amplio en la promoción de tecnologías emergentes.

Entre sus muchos elementos, la NDAA de 2021 (1) amplía las responsabilidades de IA del Instituto Nacional de Estándares y Tecnología (NIST), incluida la dirección para establecer un marco voluntario de gestión de riesgos, en consulta con la industria, que identificará y proporcionará estándares y mejores prácticas para evaluar la confiabilidad de la IA y mitigar los riesgos de los sistemas de IA; (2) lanza la Iniciativa Nacional de Inteligencia Artificial, estableciendo una burocracia federal diseñada para tratar tanto con agencias como con partes interesadas externas, así como asesorar sobre cuestiones clave de la implementación de la IA como el sesgo y la equidad; (3) otorga al Departamento de Defensa (DoD) autoridad específica para adquirir IA y, al mismo tiempo, requiere una evaluación destinada a promover la adquisición de IA que se desarrolle de manera ética y responsable. Todas estas iniciativas tendrán un efecto dominó en el desarrollo, las pruebas y el despliegue de sistemas de IA en el sector privado, e influirán en gran medida en las expectativas regulatorias sobre cuestiones como el sesgo, la precisión y la seguridad de la IA.

A continuación se muestra un resumen de alto nivel de estas disposiciones clave de IA.

Se requiere que NIST desarrolle un marco de gestión de riesgos para su uso en la implementación de IA

La NDAA le da al NIST una dirección y plazos específicos para desarrollar un marco de gestión de riesgos para el uso de IA y definir estándares medibles que se pueden usar dentro del marco. El NIST ya ha estado muy activo en cuestiones de IA, particularmente después de la Orden Ejecutiva de IA de 2019. La NDAA amplía las responsabilidades de IA del NIST a través de un mandato legislativo específico sobre IA, colocando a la agencia en el centro del trabajo a través de problemas críticos que involucran prejuicios, privacidad, seguridad, transparencia e incluso ética. Y si bien esta directiva dará como resultado un marco de riesgo que será voluntario, el trabajo del NIST en áreas similares como la ciberseguridad ha demostrado tener una enorme influencia para el sector privado y ha sido monitoreado de cerca por los legisladores.

Recomendado:  La reducción de las redes neurales masivas utilizadas para modelar el lenguaje... ScienceDaily

Específicamente, la NDAA modifica la Ley del Instituto Nacional de Estándares y Tecnología para darle al NIST cuatro misiones distintas con respecto a la IA:

  • Promover marcos de colaboración, estándares, directrices y métodos y técnicas asociados para la IA;

  • Apoyar el desarrollo de un marco de mitigación de riesgos para la implementación de sistemas de IA;

  • Apoyar el desarrollo de normas y directrices técnicas que promuevan sistemas de IA confiables; y

  • Apoyar el desarrollo de estándares técnicos y pautas para probar el sesgo en los datos y aplicaciones de entrenamiento de IA.

Dirige al NIST a desarrollar un marco de gestión de riesgos de IA dentro de dos años. El marco debe incluir estándares, directrices, procedimientos y mejores prácticas para desarrollar y evaluar la IA «confiable» y mitigar los riesgos relacionados con la IA. El NIST también debe establecer definiciones comunes para los elementos de confiabilidad, incluida la explicabilidad, la transparencia, la seguridad, la privacidad, la seguridad, la solidez, la imparcialidad, el sesgo, la ética, la validación, la verificación y la interpretabilidad. Este mandato se alinea con el trabajo en curso del NIST con respecto a la inteligencia artificial confiable, pero lo que es más importante, proporciona un cronograma más definido y elementos específicos para el marco. También deja en claro que el NIST debería trabajar para desarrollar definiciones comunes relacionadas con una variedad de temas complejos como el sesgo y la transparencia, e incluso la ética y la equidad, que generalmente no están dentro del ámbito del NIST, que podrían tener implicaciones más amplias si fueran adoptadas por organismos reguladores preocupados por el potencial. efectos adversos de la IA.

Además, la NDAA requiere que NIST, dentro de un año, desarrolle una guía para facilitar la creación de acuerdos voluntarios de intercambio de datos relacionados con la IA entre la industria y el gobierno, y que desarrolle las mejores prácticas para los conjuntos de datos utilizados para entrenar sistemas de IA, incluidos los estándares de privacidad y seguridad. de conjuntos de datos con características humanas. La orientación sobre los conjuntos de datos tendrá especial importancia para mitigar el sesgo que puede resultar de que la IA haga uso de datos que no son representativos.

NIST tiene una larga historia de colaboración con las partes interesadas de la industria en temas clave, incluida la seguridad cibernética y la privacidad, y su trabajo de inteligencia artificial hasta la fecha ha seguido este enfoque de colaboración. De hecho, NIST está planeando un taller virtual sobre IA explicable a finales de este mes. Con el rol recientemente ampliado de NIST, las partes interesadas de la IA tendrán múltiples oportunidades adicionales para participar.

Recomendado:  Buscando una forma de evitar que se engañen los modelos de audio para el aprendizaje automático de IA -- ScienceDaily

Se lanza la iniciativa nacional de inteligencia artificial con un nuevo marco burocrático.

La NDAA instruye al presidente a establecer la «Iniciativa Nacional de Inteligencia Artificial» y proporciona un marco para su implementación en todo el gobierno federal. El enfoque de esta iniciativa será asegurar el liderazgo continuo de los EE. UU. En I + D de IA y el desarrollo y uso de «sistemas de inteligencia artificial confiables»; preparar a la fuerza laboral estadounidense para la integración de la inteligencia artificial; y coordinar la I + D de IA entre las agencias civiles, de defensa y de inteligencia.

Para implementar la Iniciativa, la ley establece un marco burocrático para tratar la IA dentro del gobierno, complementando los esfuerzos que han realizado administraciones anteriores sin mandato legislativo. Éstas incluyen:

  • La Oficina Nacional de Iniciativas de Inteligencia Artificial. Esta Oficina estará ubicada dentro de la Oficina de Política de Ciencia y Tecnología de la Casa Blanca (OSTP) y servirá como contacto externo e interno sobre IA, realizará actividades de divulgación y actuará como centro de la agencia para la tecnología y las mejores prácticas.

  • Un Comité Interagencial de IA. El Comité Interagencial, que será copresidido por el Director de la OSTP y, de forma rotatoria anual, un representante del Departamento de Comercio, la Fundación Nacional de Ciencias o el Departamento de Energía, coordinará los programas y actividades federales en apoyo de la Iniciativa Nacional de Inteligencia Artificial.

  • El Comité Asesor Nacional de Inteligencia Artificial. Este Comité Asesor, que será establecido por el Departamento de Comercio en consulta con una lista de otras partes interesadas federales, incluirá miembros con experiencia y perspectivas amplias e interdisciplinarias, incluidas instituciones académicas, entidades sin fines de lucro y de la sociedad civil, laboratorios federales y empresas de todo el mundo. diversos sectores. Proporcionará recomendaciones relacionadas, entre otras cosas, con «si la Iniciativa aborda adecuadamente cuestiones éticas, legales, de seguridad y otras cuestiones sociales apropiadas», y «la responsabilidad y los derechos legales, incluidos los asuntos relacionados con la supervisión de la IA utilizando y enfoques no regulatorios, la responsabilidad por cualquier violación de las leyes existentes por parte de un sistema de inteligencia artificial y las formas de equilibrar el avance de la innovación al tiempo que se protegen los derechos individuales «. También incluirá un subcomité sobre inteligencia artificial en la aplicación de la ley que asesorará sobre cuestiones de prejuicio (incluido el uso del reconocimiento facial), seguridad, adoptabilidad y estándares legales que incluyen privacidad, derechos civiles y derechos de las personas con discapacidad.

Recomendado:  La médula espinal virtual se optimiza continuamente -- ScienceDaily

Esta iniciativa también presenta una oportunidad para la participación del sector privado. Las muchas prioridades de la Iniciativa incluyen la coordinación de I + D y el compromiso con los estándares y la provisión de alcance a diversas partes interesadas, incluidos grupos de ciudadanos, la industria y las organizaciones de derechos civiles y de derechos de las personas con discapacidad. En particular, se requiere que el Comité Asesor Nacional de Inteligencia Artificial incluya representantes de la industria, ya que hace recomendaciones sobre temas clave, incluida la supervisión de la IA por parte del gobierno.

El Departamento de Defensa debe evaluar su capacidad para adquirir tecnología de inteligencia artificial desarrollada de manera ética y responsable.

La NDAA otorga al Centro Conjunto de Inteligencia Artificial (JAIC) del Departamento de Defensa (DoD) la autoridad para adquirir tecnologías de IA en apoyo de misiones de defensa. Además, establece procedimientos para garantizar que el Departamento de Defensa adquiera inteligencia artificial que esté “desarrollada de manera ética y responsable” y que implemente de manera efectiva los estándares éticos de inteligencia artificial en los procesos de adquisición y las cadenas de suministro.

Específicamente, la NDAA requiere que el Secretario de Defensa realice una evaluación para, entre otras cosas, determinar si el Departamento de Defensa tiene la capacidad, los recursos y la experiencia para garantizar que la IA que adquiere se desarrolle de manera ética y responsable. La evaluación debe completarse dentro de los 180 días y, a continuación, el Secretario debe informar a los comités del Congreso sobre los resultados.

Estas disposiciones afectarán las adquisiciones y los contratistas del Departamento de Defensa, y dado el tamaño y el alcance del presupuesto de adquisiciones de Defensa, es probable que también afecten el desarrollo de la IA en el sector privado para cumplir con los estándares “éticos y responsables”.

***

La tecnología de inteligencia artificial ha sido un área de mayor enfoque del gobierno federal en los últimos años, especialmente después de las órdenes ejecutivas de inteligencia artificial de 2019 y 2020. Los nuevos esfuerzos lanzados por la NDAA de 2021 se suman al trabajo existente y dejan en claro que la IA será un enfoque continuo de la actividad del gobierno federal.