Saltar al contenido

La OMS describe los principios de la ética en la salud AI

30 de junio de 2021

La Organización Mundial de la Salud publicó un documento de orientación que describe seis principios clave para el uso ético de la inteligencia artificial en la salud. Veinte expertos pasaron dos años desarrollando la guía, que marca el primer informe de consenso sobre la ética de la IA en entornos de atención médica.

El informe destaca la promesa de la IA para la salud y su potencial para ayudar a los médicos a tratar a los pacientes, especialmente en áreas de escasos recursos. Pero también enfatiza que la tecnología no es una solución rápida para los desafíos de salud, particularmente en países de ingresos bajos y medianos, y que los gobiernos y los reguladores deben analizar cuidadosamente dónde y cómo se usa la IA en la salud.

La OMS dijo que espera que los seis principios puedan ser la base de cómo los gobiernos, los desarrolladores y los reguladores abordan la tecnología. Los seis principios que propusieron sus expertos son: proteger la autonomía; promover la seguridad y el bienestar humanos; asegurar la transparencia; fomentar la rendición de cuentas; asegurar la equidad; y promover herramientas que sean receptivas y sostenibles.

Hay docenas de posibles formas en las que la IA se puede utilizar en la atención médica. Hay aplicaciones en desarrollo que usan IA para analizar imágenes médicas como mamografías, herramientas que escanean los registros de salud de los pacientes para predecir si podrían enfermarse más, dispositivos que ayudan a las personas a monitorear su propia salud y sistemas que ayudan a rastrear los brotes de enfermedades. En áreas donde las personas no tienen acceso a médicos especialistas, las herramientas podrían ayudar a evaluar los síntomas. Pero cuando no se desarrollan e implementan con cuidado, pueden, en el mejor de los casos, no cumplir su promesa. En el peor de los casos, pueden causar daño.


Recomendado: ¿Qué es el Big data?.


Algunas de las dificultades quedaron claras durante el año pasado. En la lucha por combatir la pandemia de COVID-19, las instituciones de salud y los gobiernos recurrieron a herramientas de inteligencia artificial para encontrar soluciones. Sin embargo, muchas de esas herramientas tenían algunas de las características contra las que advierte el informe de la OMS. En Singapur, el gobierno admitió que una aplicación de rastreo de contactos recopilaba datos que también podrían usarse en investigaciones criminales, un ejemplo de “arrastre de funciones”, donde los datos de salud se reutilizaron más allá del objetivo original. La mayoría de los programas de inteligencia artificial que tenían como objetivo detectar COVID-19 basados ​​en escáneres de tórax se basaron en datos deficientes y no terminaron siendo útiles. Los hospitales de los Estados Unidos utilizaron un algoritmo diseñado para predecir qué pacientes con COVID-19 podrían necesitar cuidados intensivos antes de que se probara el programa.

“Una emergencia no justifica el despliegue de tecnologías no probadas”, dice el informe.

El informe también reconoció que muchas herramientas de inteligencia artificial son desarrolladas por grandes empresas de tecnología privadas (como Google y la empresa china Tencent) o por asociaciones entre el sector público y privado. Esas empresas tienen los recursos y los datos para crear estas herramientas, pero es posible que no tengan incentivos para adoptar el marco ético propuesto para sus propios productos. Su enfoque puede estar en el beneficio, más que en el bien público. «Si bien estas empresas pueden ofrecer enfoques innovadores, existe la preocupación de que eventualmente puedan ejercer demasiado poder en relación con los gobiernos, los proveedores y los pacientes», se lee en el informe.

La tecnología de inteligencia artificial en el cuidado de la salud aún es nueva, y muchos gobiernos, reguladores y sistemas de salud aún están descubriendo cómo evaluarlos y administrarlos. Ser reflexivo y mesurado en el enfoque ayudará a evitar daños potenciales, dijo el informe de la OMS. «El atractivo de las soluciones tecnológicas y la promesa de la tecnología pueden llevar a sobreestimar los beneficios y descartar los desafíos y problemas que pueden presentar las nuevas tecnologías como la IA».


Aquí hay un desglose de los seis principios éticos en la guía de la OMS y por qué son importantes:

  • Proteger la autonomía: Los seres humanos deben tener la supervisión y la última palabra en todas las decisiones de salud; no deben ser tomadas en su totalidad por máquinas, y los médicos deben poder anularlas en cualquier momento. La IA no debe usarse para guiar la atención médica de alguien sin su consentimiento, y sus datos deben protegerse.
  • Promover la seguridad humana: Los desarrolladores deben monitorear continuamente cualquier herramienta de inteligencia artificial para asegurarse de que funcionan como se supone que deben hacerlo y no causan daños.
  • Garantizar la transparencia: Los desarrolladores deben publicar información sobre el diseño de herramientas de IA. Una crítica habitual a los sistemas es que son «cajas negras» y es demasiado difícil para los investigadores y los médicos saber cómo toman decisiones. La OMS quiere ver suficiente transparencia para que puedan ser auditados y comprendidos por los usuarios y reguladores.
  • Fomentar la rendición de cuentas: Cuando algo sale mal con una tecnología de IA, como si una decisión tomada por una herramienta daña al paciente, debe haber mecanismos que determinen quién es el responsable (como los fabricantes y los usuarios clínicos).
  • Asegurar la equidad: Eso significa asegurarse de que las herramientas estén disponibles en varios idiomas, que estén capacitadas en diversos conjuntos de datos. En los últimos años, un escrutinio minucioso de los algoritmos de salud comunes ha encontrado que algunos tienen prejuicios raciales incorporados.
  • Promover una IA que sea sostenible: Los desarrolladores deberían poder actualizar periódicamente sus herramientas, y las instituciones deberían tener formas de adaptarse si una herramienta parece ineficaz. Las instituciones o empresas también deberían introducir únicamente herramientas que puedan repararse, incluso en sistemas sanitarios de escasos recursos.