El potencial de la inteligencia artificial para traer equidad en la atención médica ha estimulado importantes esfuerzos de investigación. Las disparidades raciales, de género y socioeconómicas han afectado tradicionalmente a los sistemas de atención de la salud de maneras que son difíciles de detectar y cuantificar. Sin embargo, las nuevas tecnologías de IA están proporcionando una plataforma para el cambio.
Regina Barzilay, profesora distinguida de IA y salud de la Escuela de Ingeniería y codirectora de la facultad de IA de la Clínica Jameel del MIT; Fotini Christia, profesora de ciencias políticas y directora del Centro de Investigación de Sistemas Sociotécnicos del MIT; y Collin Stultz, profesor de ingeniería eléctrica e informática y cardiólogo en el Hospital General de Massachusetts, analizan aquí el papel de la IA en la atención sanitaria equitativa, las soluciones actuales y las implicaciones políticas. Los tres son copresidentes de la conferencia AI for Healthcare Equity, que tendrá lugar el 12 de abril.
Q: ¿Cómo puede la IA ayudar a abordar las disparidades raciales, de género y socioeconómicas en los sistemas de atención de la salud?
Stultz: Muchos factores contribuyen a las disparidades económicas en los sistemas de atención médica. Por un lado, hay pocas dudas de que el sesgo humano inherente contribuye a resultados de salud dispares en poblaciones marginadas. Aunque el sesgo es una parte ineludible de la psique humana, es insidioso, omnipresente y difícil de detectar. Los individuos, de hecho, son notoriamente malos para detectar sesgos preexistentes en su propia percepción del mundo, un hecho que ha impulsado el desarrollo de pruebas de asociación implícita que permiten comprender cómo el sesgo subyacente puede afectar la toma de decisiones.
La IA proporciona una plataforma para el desarrollo de métodos que pueden hacer realidad la medicina personalizada, lo que garantiza que las decisiones clínicas se tomen de manera objetiva con el objetivo de minimizar los resultados adversos en diferentes poblaciones. El aprendizaje automático, en particular, describe un conjunto de métodos que ayudan a las computadoras a aprender de los datos. En principio, estos métodos pueden ofrecer predicciones no sesgadas que se basan únicamente en análisis objetivos de los datos subyacentes.
Desafortunadamente, sin embargo, el sesgo no solo afecta la forma en que las personas perciben el mundo que los rodea, sino que también influye en los conjuntos de datos que usamos para construir modelos. Los conjuntos de datos de observación que almacenan las características y los resultados de los pacientes a menudo reflejan el sesgo subyacente de los proveedores de atención médica; Por ejemplo, ciertos tratamientos pueden ofrecerse preferentemente a quienes tienen un nivel socioeconómico alto. En resumen, los algoritmos pueden heredar nuestros propios sesgos. Por lo tanto, hacer que la medicina personalizada sea una realidad se basa en nuestra capacidad para desarrollar e implementar herramientas imparciales que aprendan las decisiones específicas del paciente a partir de datos clínicos de observación. Para el éxito de este esfuerzo es fundamental el desarrollo de métodos que puedan identificar sesgos algorítmicos y sugerir estrategias de mitigación cuando se identifiquen sesgos.
Las decisiones clínicas informadas, objetivas y específicas del paciente son el futuro de la atención clínica moderna. El aprendizaje automático contribuirá en gran medida a hacer de esto una realidad, logrando conocimientos clínicos basados en datos sin prejuicios implícitos que puedan influir en las decisiones de atención médica.
Q: ¿Cuáles son algunas de las soluciones de IA actuales que se están desarrollando en este espacio?
Barzilay: En la mayoría de los casos, las predicciones sesgadas se pueden atribuir a las propiedades de distribución de los datos de entrenamiento. Por ejemplo, cuando alguna población está subrepresentada en los datos de entrenamiento, es probable que el clasificador resultante tenga un desempeño inferior en este grupo. De forma predeterminada, los modelos están optimizados para el rendimiento general, por lo que, sin darse cuenta, prefieren adaptarse a la clase mayoritaria, a expensas del resto. Si somos conscientes de estos grupos minoritarios en los datos, tenemos múltiples medios para dirigir nuestro algoritmo de aprendizaje hacia un comportamiento justo. Por ejemplo, podemos modificar el objetivo de aprendizaje en el que aplicamos una precisión constante en diferentes grupos, o volvemos a ponderar la importancia de los ejemplos de capacitación, amplificando «la voz» del grupo minoritario.
Otra fuente común de sesgo se relaciona con las “variaciones molestas” donde las etiquetas de clasificación exhiben correlaciones idiosincrásicas con algunas características de entrada que son específicas del conjunto de datos y es poco probable que se generalicen. En un infame conjunto de datos con tal propiedad, el estado de salud de los pacientes con el mismo historial médico dependía de su raza. Este sesgo fue un artefacto desafortunado de la forma en que se construyeron los datos de entrenamiento, pero resultó en una discriminación sistemática de los pacientes negros. Si tales sesgos se conocen de antemano, podemos mitigar su efecto obligando al modelo a reducir el efecto de tales atributos. En muchos casos, sin embargo, se desconocen los sesgos de nuestros datos de entrenamiento. Es seguro asumir que es probable que el entorno en el que se aplicará el modelo muestre alguna divergencia de distribución con respecto a los datos de entrenamiento. Para mejorar la tolerancia de un modelo a tales cambios, varios enfoques (como la minimización de riesgos invariantes) entrenan explícitamente el modelo para generalizar de manera sólida a nuevos entornos.
Sin embargo, debemos tener en cuenta que los algoritmos no son varitas mágicas que pueden corregir todos los errores en los datos de entrenamiento desordenados del mundo real. Esto es especialmente cierto cuando no somos conscientes de la peculiaridad de un conjunto de datos específico. Desafortunadamente, este último escenario es común en el dominio de la atención médica, donde la curación de datos y el aprendizaje automático a menudo son realizados por diferentes equipos. Estos sesgos «ocultos» ya han dado lugar a la implementación de herramientas de inteligencia artificial que se equivocan sistemáticamente en determinadas poblaciones (como el modelo descrito anteriormente). En tales casos, es esencial proporcionar a los médicos herramientas que les permitan comprender el fundamento de las predicciones del modelo y detectar predicciones sesgadas lo antes posible. En la actualidad, una gran cantidad de trabajo en aprendizaje automático se dedica a desarrollar modelos transparentes que puedan comunicar su razonamiento interno a los usuarios. En este punto, nuestra comprensión de qué tipos de fundamentos son particularmente útiles para los médicos es limitada, ya que las herramientas de inteligencia artificial aún no forman parte de la práctica médica de rutina. Por lo tanto, uno de los objetivos clave de la Clínica Jameel del MIT es implementar algoritmos de IA clínica en hospitales de todo el mundo y estudiar empíricamente su desempeño en diferentes poblaciones y entornos clínicos. Estos datos informarán el desarrollo de la próxima generación de herramientas de inteligencia artificial justas y autoexplicables.
Q: ¿Cuáles son las implicaciones políticas para las agencias gubernamentales y la industria de una IA más equitativa para el cuidado de la salud?
Christia: El uso de la IA en el cuidado de la salud es ahora una realidad y para que las agencias gubernamentales y la industria cosechen los beneficios de una IA más equitativa para el cuidado de la salud, necesitan crear un ecosistema de IA. Deben trabajar en estrecha colaboración e interactuar con médicos y pacientes para priorizar la calidad de las herramientas de inteligencia artificial que se emplean en este espacio, asegurándose de que estén seguras y listas para el horario de máxima audiencia. Esto significa que las herramientas de inteligencia artificial que se implementan deben estar bien probadas y conducir a mejoras tanto en la capacidad del médico como en la experiencia del paciente.
A tal efecto, los actores gubernamentales y de la industria deben pensar en campañas educativas que informen a los profesionales de la salud sobre la importancia de las intervenciones específicas de IA para complementar y aumentar su trabajo para abordar la equidad. Más allá de los médicos, también debe haber un enfoque en generar confianza con los pacientes de minorías en que la introducción de estas herramientas de IA dará como resultado una atención general mejor y más equitativa. También es particularmente importante ser transparente sobre lo que significa el uso de IA en la salud para el paciente individual, así como también mitigar las preocupaciones de privacidad de los datos de los pacientes de poblaciones minoritarias que a menudo carecen de confianza en un sistema de atención de salud «bien intencionado», dado que transgresiones históricas contra ellos.
En el ámbito regulatorio, las agencias gubernamentales necesitarían armar un marco que les permitiera tener claridad sobre la financiación de la IA y la responsabilidad con la industria y los profesionales de la salud para que se implementen las herramientas de IA de la más alta calidad y, al mismo tiempo, se minimicen los riesgos asociados para los médicos. y pacientes que los utilizan. Las regulaciones deberían dejar en claro que los médicos no están subcontratando completamente su responsabilidad a la máquina y delinear los niveles de responsabilidad profesional por la salud de sus pacientes. Trabajando en estrecha colaboración con la industria, los médicos y los pacientes, las agencias gubernamentales también tendrían que monitorear a través de los datos y la experiencia del paciente la efectividad real de las herramientas de IA para abordar las disparidades en la atención médica en el terreno, y estar en sintonía para mejorarlas.