Saltar al contenido

Los gobiernos proponen medidas para proteger a los ciudadanos de la IA dañina

6 de octubre de 2022

La administración del presidente estadounidense Joe Biden ha propuesto nuevas directrices destinadas a proteger a los ciudadanos de los efectos nocivos de inteligencia artificial (IA) sistemas.

Las pautas se conocen como el «Plan para una Declaración de Derechos de AI». Un anteproyecto es un plan que muestra cómo alguien diseñará, construirá o alcanzará una meta. La propuesta no es un conjunto de reglas y no incluye acciones de ejecución específicas. Su objetivo es influir en los desarrolladores de sistemas de IA para salvaguardar los derechos digitales y civiles.

Las pautas fueron creadas por la Oficina de Política Científica y Tecnológica de la Casa Blanca. Fueron lanzados a medida que los sistemas de IA se expanden cada vez más a muchas partes diferentes de la sociedad.

El plan identifica cinco áreas que pretenden orientar “el diseño, uso y despliegue de automatizado sistemas para proteger al público estadounidense en la era de la inteligencia artificial”.


Recomendado: ¿Qué es el Big data?.


Las pautas se establecieron durante el año pasado en cooperación con muchas agencias gubernamentales, dijo la administración en un comunicado. Los funcionarios siguieron el consejo de grupos de la sociedad civil, tecnólogos, investigadores de la industria y las principales empresas de tecnología.

Los funcionarios estadounidenses le dijeron a Associated Press que el plan representa un progreso en los esfuerzos de la administración para responsabilizar a las empresas de tecnología por los sistemas de IA que desarrollan e implementan. Las directrices están diseñadas para limitar los efectos de parcialidad en sistemas de IA.

Los críticos de la IA han notado muchos casos en los que los sistemas automatizados han identificado erróneamente o discriminado a las personas en función de su raza o sexo. Varios estudios e informes de noticias han documentado los daños que resultaron de las herramientas impulsadas por IA.


Recomendado: Todos los términos del Big data.


Por ejemplo, los sistemas de reconocimiento facial utilizados por los organismos encargados de hacer cumplir la ley han dado lugar a detenciones indebidas. En un incidente, un sistema automatizado discriminó a las personas que buscaban asistencia financiera en universidades históricamente negras. En otro caso, los sistemas de inteligencia artificial utilizados para administrar la atención médica discriminaron a los pacientes negros.

Un funcionario de la administración dijo a los periodistas que tales ejemplos demuestran que algunos sistemas de IA “están causando daños reales en la vida de los estadounidenses”. El funcionario agregó que los sistemas de IA irresponsables van en contra de los valores democráticos, “incluido el derecho fundamental a la privacidad y la no discriminación…”.

Las pautas también instan a los desarrolladores de IA a incorporar herramientas en los sistemas para dar a los usuarios control sobre sus datos. Y se insta a los desarrolladores a garantizar que los sistemas automatizados se utilicen de manera segura y transparentemente.

Algunos expertos de la industria de la tecnología han advertido que tales medidas podrían perjudicar a algunas empresas estadounidenses si las pautas se convierten en reglas. El jefe de la Cámara de Comercio de EE. UU. no gubernamental, Jordan Crenshaw, dijo que no le gustaría ver las pautas promulgadas en la ley de EE. UU. Si esto sucede, podría”esposar La capacidad de Estados Unidos para competir” en el desarrollo de IA con otros países.

En Europa, tales propuestas se han desarrollado mucho más. El año pasado, la Unión Europea propuso un conjunto de reglas destinadas a regir la tecnología de IA. Los legisladores de la UE están debatiendo actualmente las propuestas, que cubren áreas como la automatización vigilancia, protecciones de privacidad y sesgo del sistema. Las reglas se conocen como la Ley de Inteligencia Artificial.

Algunos grupos han advertido que las propuestas de la UE podrían crear burocrático Barreras para las empresas tecnológicas. Las propuestas establecerían reglas estrictas y multarían a los infractores.

El grupo político estadounidense Brookings Institution criticó recientemente una parte de la Ley de Inteligencia Artificial. Dijo que el plan de la UE para poner límites a la IA de código abierto podría “avanzar concentrarse poder sobre el futuro de la IA en las grandes empresas tecnológicas”.

La IA de código abierto es una tecnología de inteligencia artificial que el público y las empresas pueden usar sin costo alguno. Brookings dijo que limitar este tipo de IA provocaría dos tipos de daños.

Mantendría muchos sistemas de IA bajo el control de grandes empresas de tecnología establecidas y negaría a las pequeñas empresas la oportunidad de desarrollar nuevas herramientas de IA. Además, las reglas propuestas por la UE limitarían la investigación valiosa y disminuirían la apertura de los sistemas de IA ampliamente utilizados, dijo Brookings.

Soy Bryan Lynn.

Bryan Lynn escribió esta historia para VOA Learning English, basada en informes de The Associated Press, Reuters, Brookings y la UE.

Cuestionario – Los gobiernos proponen medidas para proteger a los ciudadanos de la IA dañina

Comience el Quiz para averiguarlo

__________________________________________________________________

Palabras en esta historia

inteligencia artificial norte. el desarrollo de sistemas informáticos con la capacidad de realizar un trabajo que normalmente requiere inteligencia humana

automatizar v. controlar algo usando maquinas y no personas

parcialidad norte. una situación en la que apoya o se opone a algo de manera injusta porque está influenciado por opiniones personales

transparente adj. apertura o algo que se ve claramente

esposar v. para limitar a alguien en la forma en que lo hace la policía poniendo restricciones en las manos de las personas

vigilancia norte. la observación cuidadosa de una persona o lugar

burocrático adj. relativo a un sistema de regulaciones gubernamentales

______________________________________________________________________

¿Qué piensas de esta historia? Queremos escuchar de ti. Tenemos un nuevo sistema de comentarios. Así es como funciona:

  1. 1. Escriba su comentario en el cuadro.
  2. 2. Debajo del cuadro, puede ver cuatro imágenes para cuentas de redes sociales. Son para Disqus, Facebook, Twitter y Google.
  3. 3. Haga clic en una imagen y aparecerá un cuadro. Ingrese el inicio de sesión para su cuenta de redes sociales. O puede crear uno en el sistema Disqus. Es el círculo azul con una «D» en él. Es gratis.

Cada vez que vuelve a comentar en el sitio de Learning English, puede usar su cuenta y ver sus comentarios y respuestas a ellos. Nuestra política de comentarios es aquí.