Las leyes europeas de IA costarán a las empresas una pequeña fortuna, pero la recompensa es la confianza

Escuche a los CIO, CTO y otros ejecutivos senior y de nivel C sobre datos y estrategias de inteligencia artificial en la Cumbre sobre el futuro del trabajo este 12 de enero de 2022. Aprende más


La inteligencia artificial no es la tecnología del mañana, ya está aquí. Ahora también la legislación propone regularlo.

A principios de este año, la Unión Europea describió su propuesta de legislación sobre inteligencia artificial y recopiló comentarios de cientos de empresas y organizaciones. La Comisión Europea cerró el período de consultas en agosto y, a continuación, viene un debate adicional en el Parlamento Europeo.

Además de prohibir algunos usos por completo (el reconocimiento facial para la identificación en espacios públicos y la «puntuación» social, por ejemplo), se centra en la regulación y revisión, especialmente para los sistemas de IA considerados de «alto riesgo», los que se utilizan en decisiones de educación o empleo. , decir.


Recomendado: ¿Qué es el Big data?.


Cualquier empresa con un producto de software considerado de alto riesgo requerirá una insignia Conformité Européenne (CE) para ingresar al mercado. El producto debe estar diseñado para ser supervisado por humanos, evitar el sesgo de automatización y tener una precisión proporcional a su uso.

A algunos les preocupan los efectos colaterales de esto. Argumentan que podría sofocar la innovación europea, ya que el talento es atraído a regiones donde las restricciones no son tan estrictas, como Estados Unidos. Y los costos de cumplimiento anticipados en los que incurrirán los productos de IA de alto riesgo en la región, tal vez hasta 400.000 euros (452.000 dólares) para sistemas de alto riesgo, según un grupo de expertos de EE. UU., También podrían evitar la inversión inicial.

Así continúa el argumento. Pero acepto la legislación y el enfoque basado en el riesgo que ha adoptado la UE.

¿Por qué debería importarme? Vivo en el Reino Unido y mi empresa, Healx, que utiliza inteligencia artificial para ayudar a descubrir nuevas oportunidades de tratamiento para enfermedades raras, tiene su sede en Cambridge.

Este otoño, el Reino Unido publicó su propia estrategia nacional de IA, que ha sido diseñada para mantener la regulación al «mínimo», según un ministro. Pero ninguna empresa de tecnología puede permitirse ignorar lo que sucede en la UE.

Las leyes del Reglamento General de Protección de Datos (GDPR) de la UE requerían que casi todas las empresas con un sitio web a ambos lados del Atlántico reaccionaran y se adaptaran a ellas cuando se implementaron en 2016. Sería ingenuo pensar que cualquier empresa con una perspectiva internacional ganó No choques con estas reglas propuestas también. Si desea hacer negocios en Europa, aún tendrá que adherirse a ellos desde fuera de ella.

Y para áreas como la salud, esto es increíblemente importante. El uso de inteligencia artificial en el cuidado de la salud caerá casi inevitablemente bajo la etiqueta de “alto riesgo”. Y con razón: las decisiones que afectan los resultados de los pacientes cambian vidas.

Los errores al comienzo de esta nueva era podrían dañar la percepción pública de manera irrevocable. Ya sabemos cómo las iniciativas de salud de IA bien intencionadas pueden terminar perpetuando el racismo estructural, por ejemplo. Si no se controlan, continuarán haciéndolo.

Es por eso que el enfoque de la legislación en reducir el sesgo en la inteligencia artificial y establecer un estándar de oro para generar confianza pública es vital para la industria. Si un sistema de IA recibe datos de pacientes que no representan con precisión un grupo objetivo (las mujeres y los grupos minoritarios a menudo están subrepresentados en los ensayos clínicos), los resultados pueden estar sesgados.

Eso daña la confianza y la confianza es crucial en la atención médica. La falta de confianza limita la eficacia. Esa es parte de la razón por la que una gran cantidad de personas en Occidente todavía se niega a vacunarse contra el COVID. Los problemas que está causando son evidentes.

Los avances de la IA no significarán nada si los pacientes sospechan de un diagnóstico o terapia producidos por un algoritmo, o no entienden cómo se han extraído las conclusiones. Ambos resultan en una dañina falta de confianza.

En 2019, Harvard Business Review descubrió que los pacientes desconfiaban de la IA médica incluso cuando se demostró que supera a los médicos, simplemente porque creemos que nuestros problemas de salud son únicos. No podemos empezar a cambiar esa percepción sin confianza.

La inteligencia artificial ha demostrado su potencial para revolucionar la atención médica, salvando vidas en el camino a convertirse en una industria estimada en $ 200 mil millones para 2030.

El siguiente paso no será solo aprovechar estos avances, sino generar confianza para que se puedan implementar de manera segura, sin ignorar a los grupos vulnerables y con una transparencia clara, para que las personas preocupadas puedan comprender cómo se ha tomado una decisión.

Esto es algo que siempre y siempre debe ser monitoreado. Es por eso que todos deberíamos tomar nota del espíritu de la legislación de IA propuesta por la UE y adoptarla, dondequiera que operemos.

Tim Guilliams es cofundador y director ejecutivo de la startup de descubrimiento de fármacos Healx.

VentureBeat

La misión de VentureBeat es ser una plaza urbana digital para que los responsables de la toma de decisiones técnicas obtengan conocimientos sobre tecnología transformadora y realicen transacciones. Nuestro sitio ofrece información esencial sobre tecnologías y estrategias de datos para guiarlo a medida que dirige sus organizaciones. Te invitamos a convertirte en miembro de nuestra comunidad, para acceder a:

  • información actualizada sobre los temas de su interés
  • nuestros boletines
  • contenido exclusivo de líderes de opinión y acceso con descuento a nuestros preciados eventos, como Transformar 2021: Aprende más
  • funciones de red y más

Hágase miembro