Los científicos marcaron las décadas de 1970 y 1990 como dos «inviernos de IA» distintos, cuando los pronósticos soleados para la inteligencia artificial dieron paso al pesimismo sombrío a medida que los proyectos no cumplieron con las expectativas. IBM vendió su Watson Health basado en IA a una firma de capital privado a principios de este año por lo que los analistas describen como valor de salvamento. ¿Podría esta transacción señalar un tercer invierno de IA?
La inteligencia artificial ha estado con nosotros más tiempo de lo que la mayoría de la gente cree, llegando a una audiencia masiva con Rosey the Robot en el programa de televisión de la década de 1960 «The Jetsons». Esta aplicación de IA, la sirvienta omnisciente que mantiene el hogar en funcionamiento, es la versión de ciencia ficción. En un entorno sanitario, la inteligencia artificial es limitada.
Diseñado para operar en una tarea específica, el concepto es similar a los escenarios del mundo real, como cuando una máquina computarizada vence a un campeón de ajedrez humano. El ajedrez son datos estructurados con reglas predefinidas sobre dónde moverse, cómo moverse y cuándo se gana el juego. Los registros electrónicos de pacientes, en los que se basa la inteligencia artificial, no se adaptan a los límites limpios de un tablero de ajedrez.
El problema es recopilar e informar datos precisos de los pacientes. MedStar Health ve prácticas descuidadas de registros de salud electrónicos que perjudican a médicos, enfermeras y pacientes. El sistema hospitalario tomó medidas iniciales para centrar la atención pública en el tema en 2010 y el esfuerzo continúa hoy. La campaña de concientización de MedStar usurpa el acrónimo “EHR”, convirtiéndolo en “los errores ocurren regularmente” para dejar clara la misión.
Al analizar el software de los principales proveedores de EHR, MedStar descubrió que ingresar datos a menudo no es intuitivo y las pantallas hacen que sea confuso para los médicos interpretar la información. El software de registros de pacientes a menudo no tiene conexión con la forma en que los médicos y las enfermeras trabajan realmente, lo que provoca aún más errores.
Los ejemplos de errores de datos médicos aparecen en revistas médicas, los medios de comunicación y los casos judiciales, y van desde un código defectuoso que elimina información crítica hasta cambiar misteriosamente el género de los pacientes. Dado que no existe un sistema de notificación formal, no existe un número definitivo de errores médicos basados en datos. La alta probabilidad de que se viertan datos incorrectos en aplicaciones de inteligencia artificial descarrila su potencial.
El desarrollo de la inteligencia artificial comienza con el entrenamiento de un algoritmo para detectar patrones. Se ingresan los datos y cuando se obtiene una muestra lo suficientemente grande, se prueba el algoritmo para ver si identifica correctamente ciertos atributos del paciente. A pesar del término «aprendizaje automático», que implica un proceso en constante evolución, la tecnología se prueba y se implementa como el desarrollo de software tradicional. Si los datos subyacentes son correctos, los algoritmos correctamente entrenados automatizarán las funciones y harán que los médicos sean más eficientes.
Tomemos, por ejemplo, el diagnóstico de condiciones médicas basadas en imágenes oculares. En un paciente el ojo está sano; en otro, el ojo muestra signos de retinopatía diabética. Se capturan imágenes de ojos sanos y «enfermos». Cuando se ingresan suficientes datos de pacientes en el sistema de inteligencia artificial, el algoritmo aprenderá a identificar a los pacientes con la enfermedad.
Andrew Beam, profesor de la Universidad de Harvard con experiencia en el sector privado en aprendizaje automático, presentó un escenario preocupante de lo que podría salir mal sin que nadie lo supiera. Usando el ejemplo del ojo anterior, digamos que a medida que se atiende a más pacientes, se alimentan más imágenes del ojo al sistema, que ahora está integrado en el flujo de trabajo clínico como un proceso automatizado. Hasta aquí todo bien. Pero digamos que las imágenes incluyen pacientes tratados con retinopatía diabética. Esos pacientes tratados tienen una pequeña cicatriz de una incisión con láser. Ahora se engaña al algoritmo para que busque pequeñas cicatrices.
Además de la confusión de datos, los médicos no se ponen de acuerdo entre ellos sobre lo que realmente significan miles de puntos de datos de pacientes. Se requiere la intervención humana para decirle al algoritmo qué datos buscar, y están codificados como etiquetas para lectura automática. Otras preocupaciones incluyen actualizaciones de software EHR que pueden crear errores. Un hospital puede cambiar de proveedor de software, lo que resulta en lo que se denomina cambio de datos, cuando la información se traslada a otra parte.
Eso es lo que sucedió en el MD Anderson Cancer Center y fue la razón técnica por la que terminó la primera asociación de IBM. El entonces director ejecutivo de IBM, Ginni Rometty, describió el acuerdo, anunciado en 2013, como el «lanzamiento a la luna» de la atención médica de la compañía. MD Anderson’s declaró, en un comunicado de prensa, que usaría Watson Health en su misión de erradicar el cáncer. Dos años más tarde la sociedad fracasó. Para seguir adelante, ambas partes tendrían que volver a entrenar el sistema para comprender los datos del nuevo software. Fue el principio del fin para Watson Health de IBM.
La inteligencia artificial en el cuidado de la salud es tan buena como los datos. La gestión de precisión de los datos de los pacientes no es ciencia ficción ni un “disparo a la luna”, pero es esencial para que la IA tenga éxito. La alternativa es una tecnología sanitaria prometedora que se congela en el tiempo.
Foto: MF3d, Getty Images