Saltar al contenido

El artículo plantea cuestiones éticas sobre el uso de la IA y los macrodatos en la investigación biomédica humana

28 de junio de 2023

SINGAPUR – La protección de la privacidad y la confidencialidad de los datos de una persona es de suma importancia en la investigación biomédica. También lo es obtener el consentimiento informado y respetar los derechos y la autonomía de la persona.

Pero, ¿qué sucede si no es factible que los investigadores obtengan el consentimiento de la persona para el uso específico de sus datos para un estudio impulsado por inteligencia artificial (IA) y big data?

¿Cuándo debería tener prioridad el beneficio social sobre la privacidad de los datos y viceversa? Si la investigación la realiza un modelo de IA, ¿cómo se llega a una decisión y quién debe ser responsable de sus decisiones equivocadas?

Estas son algunas de las preguntas planteadas en un documento de consulta pública en curso, titulado Cuestiones éticas, legales y sociales que surgen del uso de big data e inteligencia artificial en la investigación biomédica humana.

El documento de 103 páginas, publicado en línea en mayo, fue iniciado por el Comité Asesor de Bioética (BAC, por sus siglas en inglés), un organismo asesor nacional independiente creado por el Gabinete a fines de 2000 para revisar los problemas éticos, legales y sociales que surgen de la investigación biomédica y sus aplicaciones. En Singapur.

El informe de asesoramiento final se utilizará para guiar a varios grupos, incluidos académicos, investigadores y profesionales de la salud, que deseen utilizar big data e IA en la investigación biomédica humana.

Las salvaguardas actuales incluyen la Ley de Protección de Datos Personales (PDPA) de 2012, que entró en vigencia en 2014, y las Directrices de IA en el cuidado de la salud de 2021, que el Ministerio de Salud desarrolló conjuntamente con la Autoridad de Ciencias de la Salud y los Sistemas Integrados de Información de Salud.

Recomendado:  Infografía: Estado de la IA 2022

Estos no cubren todas las eventualidades o posibles desarrollos en big data (que en el cuidado de la salud incluye los de registros clínicos, registros de salud de pacientes, resultados de exámenes médicos, dispositivos de monitoreo de salud) e IA.

Es un área transformadora y de rápido crecimiento que puede ayudar con la detección temprana de enfermedades, la prevención de enfermedades, mejores tratamientos y una mejor calidad de vida, por ejemplo, dijo el presidente del grupo de revisión de big data e IA de BAC, el profesor Patrick Tan de Programa de biología de células madre y cáncer de la Facultad de Medicina de Duke-NUS.

Sin embargo, dijo que cuando se trata de la investigación de big data, es posible que las personas a veces no sepan para qué se utilizan sus datos, y es posible que no sea posible obtener el consentimiento de cada individuo cada vez que se utilizan sus datos.

La privacidad de los datos frente a los beneficios sociales es un tema destacado en el documento. El potencial de la investigación de big data es enorme, pero los riesgos para la privacidad de los datos podrían aumentar y debe haber un equilibrio justo, agregó el profesor Tan.

Para las personas, un posible escenario de riesgo en el futuro es cuando enfrentan discriminación al comprar un seguro, si la privacidad de sus datos se ve comprometida.

“Por ejemplo, si su compañía de seguros sabe que tiene la mutación BRCA1 (gen 1 del cáncer de mama), pero aún no tiene cáncer de mama, ¿debería ser elegible para el seguro?

Recomendado:  Nuevo estudio eólico marino tiene como objetivo generar ganancias netas para la biodiversidad marina

“En los Estados Unidos, existen leyes que prohíben este tipo de perfiles previos a la enfermedad”, dijo el profesor Tan, quien también es director ejecutivo del Instituto del Genoma de Singapur y director del Instituto de Medicina de Precisión SingHealth Duke-NUS.

“Incluso hay alguna evidencia de que (los investigadores) usan big data en IA donde la cadencia de su voz… la velocidad a la que escribe sus letras en el teclado son todos registros de agudeza mental.

“Digamos que estás en riesgo de algo, y si puedes ser identificado, ¿eso te pondría en riesgo (de) ser discriminado?” dijo, citando ejemplos hipotéticos.