Los sesgos no deseados provocados por datos o procesos correctos pero independientes del contexto dan como resultado resultados incorrectos.
En marzo de 2022, cinco agencias de justicia e interior de la UE colaboraron con investigadores para crear el primer «marco de responsabilidad de IA» del mundo para guiar el despliegue de herramientas de IA por parte de los profesionales de la seguridad. Se adopta para abordar los principales problemas éticos relacionados con el uso de la inteligencia artificial, en particular con las agencias gubernamentales, como las fuerzas del orden. Los problemas éticos de la inteligencia artificial han estado en el centro de atención durante bastante tiempo por la amenaza que puede representar no como un arma robótica sino como una amenaza existencial para la humanidad en su vida cotidiana. Cuando se trata de inteligencia artificial, la regulación y la responsabilidad son dos caras de la misma moneda. Si bien la regulación se refiere a garantizar la seguridad del público, la responsabilidad se trata de responsabilizar a alguien.
Cuando parece totalmente sensato responsabilizar a la inteligencia artificial por accidentes que han ocurrido o tienen la posibilidad de ocurrir, como un automóvil autónomo que choca contra un peatón, o un servicio de diagnóstico habilitado para IA que arroja resultados incorrectos, ¿quién debería asumir la responsabilidad? consecuencias resultantes de un marco jerárquico. Los sistemas de IA no son productos de uno sino de múltiples jugadores. ¿A quién puede responsabilizar cuando un sistema falla, el diseñador, el fabricante, el programador o el proveedor de datos? ¿Se puede demandar a un usuario si un sistema de Inteligencia Artificial funciona mal cuando está en uso por no seguir las instrucciones, incluso si el proveedor le comunicó las limitaciones al comprador? Estas son algunas preguntas difíciles que la gobernanza de la IA debería tener en cuenta seriamente.
La responsabilidad de la IA viene en capas, a saber. rendimiento funcional, los datos que utiliza y cómo se utiliza el sistema. El sistema de IA funcional que utilizan la mayoría de las organizaciones está programado mediante aprendizaje automático y procesamiento de lenguaje natural para analizar datos y tomar decisiones. La forma en que los trolls de Twitter corrompen el chatbot de inteligencia artificial de Microsoft es un ejemplo clásico. Tay era un chatbot de IA creado por Microsoft para entablar una «conversación informal y divertida» con Twitter. Microsoft afirmó que, con el tiempo, Tay aprendería conversaciones más interesantes y naturales. En menos de 24 horas desde el lanzamiento, los trolls de Internet corrompieron el bot con tweets racistas, misóginos y antisemitas que quizás Microsoft no esperaba que sucedieran cuando ignoró entrenar a su bot para la «jerga».
En segundo lugar, como dice el refrán, cualquier sistema de IA es tan bueno como los datos que recibe. Cuando se pasa por alto la necesidad de datos confiables y de calidad al diseñar un sistema de inteligencia artificial, particularmente para tareas que dependen de la toma de decisiones basadas en situaciones hipotéticas, los sistemas no brindan los resultados deseados. Las tecnologías de IA diseñadas para el cuidado de la salud aparentemente tienen demasiado en juego como para ignorar este factor. Por ejemplo, en 2018, Stat News informó que los documentos internos de la empresa de IBM muestran que los expertos médicos que trabajan con la supercomputadora Watson de la empresa encontraron «múltiples ejemplos de recomendaciones de tratamiento inseguras e incorrectas». Pero más tarde se descubrió que la anomalía se debía a datos inadecuados, ya que los ingenieros entrenaron los sistemas con datos de pacientes con cáncer hipotéticos en lugar de utilizar datos de pacientes reales.
Por último, el sesgo involuntario desencadenado por datos o procesos correctos pero independientes del contexto da como resultado resultados incorrectos. Algo que ha funcionado hace algunos años puede no dar una solución adecuada a las circunstancias actuales. Muchos desarrolladores subestiman los sesgos de IA no deseados mientras entrenan los sistemas de IA, aunque con datos técnicamente correctos. El sistema de reclutamiento de Amazon, que usó años de datos de solicitantes, terminó contratando candidatos masculinos. Motivo: sus sistemas recibieron entradas de datos de un período en el que la mayoría de los reclutadores eran hombres. Y en un caso más grave, el sistema de justicia estadounidense utilizó un sistema de inteligencia artificial sesgado que otorgó a los acusados negros una puntuación de riesgo más alta, lo que influyó en las sentencias en varios estados.
Es comprensible el afán de las agencias gubernamentales por regular la Inteligencia Artificial. Sin embargo, considerando la infancia y la escasa penetración de la tecnología, existe la posibilidad de que las regulaciones puedan hundir el espíritu creativo de los desarrolladores. En respuesta a las propuestas de la UE para regular la IA y la robótica en 2017, el CEO de Intel, Brain Krzanich, argumentó que la IA estaba en su infancia y que era demasiado pronto para regular la tecnología. Algunos académicos sugirieron desarrollar normas comunes que incluyan requisitos para la prueba y la transparencia de los algoritmos que no sofocarían la investigación y el desarrollo existentes.
Comparte este artículo
Haz lo de compartir
sobre el autor
Más información sobre el autor