Saltar al contenido

Por qué el uso de inteligencia artificial en medicina podría ser perjudicial para los pacientes

27 de abril de 2023
El desarrollo de programas como ChatGPT abre la posibilidad de que se den diagnósticos médicos e indiquen tratamientos a través de inteligencia artificial/Archivo

El uso de la inteligencia artificial en la salud y la medicina fue ganando seguidores durante los últimos quince años. En la actualidad, se usan aplicaciones para saber cuántos pasos se hacen por día, practicar meditación o acceder a sesiones de terapia cognitivo-conductual, entre otros aspectos.

Te puede interesar: Cómo la inteligencia artificial cambiará el futuro de las tareas domésticas

Sin embargo, ahora la disponibilidad de chatbots sofisticados, que son impulsados ​​por programas como ChatGPT, abre la puerta a que la inteligencia artificial se convierte en una fuente primaria a la hora de dar diagnósticos médicos e indicar tratamientos. Esta realidad despierta dos preguntas esenciales: ¿se podría alterar la relación entre médicos y pacientes? y, sobre todo, ¿esto puede implicar riesgos para la atención médica?

El Chat GPT es un modelo lingüístico que se ha alterado con volúmenes masivos de textos de Internet. Intenta imitar el texto humano y puede desempeñar diversas funciones en la investigación sanitaria y de la salud. Recientemente, se implementaron Estabilidad IAuna plataforma que también genera contenido a través de textos con el objetivo de pelear “mano a mano” con la herramienta de IA abierta.

Te puede interesar: Inteligencia Artificial generativa: una aliada hacia la creatividad

Con la nueva tecnología, los modelos lingüísticos empiezan a mostrar su capacidad para asumir tareas que antes solo estaban reservadas a profesionales. Esto ha generado conversaciones y hasta debates entre los médicos sobre cómo la tecnología puede ayudar a atender a los pacientes.

Chat GPT es un modelo lingüístico que busca imitar el texto humano y puede desempeñar funciones en la investigación sanitaria y de la salud.  (Reuters/Dado Ruvic)
Chat GPT es un modelo lingüístico que busca imitar el texto humano y puede desempeñar funciones en la investigación sanitaria y de la salud. (Reuters/Dado Ruvic)

Los profesionales de la medicina esperan que los modelos puedan usar información de las historias clínicas digitales o dar a los pacientes resúmenes de notas técnicas extensas. Sin embargo, también existe el temor de que puedan engañar a los médicos o brindar respuestas inexactas que conduzcan a un diagnóstico o plan de tratamiento incorrecto.

Te puede interesar: ChatGPT: cómo borrar el historial de conversaciones con la IA

Robert Pearl, profesor de la Facultad de Medicina de la Universidad de Stanford, fue director general de Kaiser Permanente, un grupo médico de Estados Unidos con más de 12 millones de pacientes. Según sostuvo, lo médicos deberían utilizar ChatGPT en sus consultas. “Será más importante para los médicos de lo que lo fue el estetoscopio en el pasado”, dijo a la revista Cableado.

Recomendado:  ¿OpenAI funciona en GPT-5?

Las empresas que desarrollan tecnología de inteligencia artificial han convertido los exámenes de las facultades de medicina en una referencia en la competencia por construir sistemas más capaces.

El año pasado, Microsoft Research presentó BioGPT, un modelo de lenguaje que obtuvo altas presiones en una serie de tareas médicas. Además, un documento de OpenAI del Hospital General de Massachusetts y AnsibleHealth afirmaba que ChatGPT puede alcanzar o superar el 60% de aprobados en el examen de licencia médica de Estados Unidos.

Empresas que desarrollan tecnología de inteligencia artificial toman en cuenta los exámenes de las facultades de medicina como una referencia para construir sistemas de inteligencia artificial más capaces (Getty)
Empresas que desarrollan tecnología de inteligencia artificial toman en cuenta los exámenes de las facultades de medicina como una referencia para construir sistemas de inteligencia artificial más capaces (Getty)

Semanas más tarde, los investigadores de Google y DeepMind presentaron Med-PaLM, que encontraron un 67 por ciento de precisión en la misma prueba, aunque también escribieron que, aunque alentadores, sus resultados “siguen siendo inferiores a los clínicos”.

Microsoft y uno de los mayores proveedores de software sanitario del mundo, Epic Systems, han anunciado planes para utilizar el GPT-4 de OpenAI, en el que se basa ChatGPT, para buscar tendencias en las historias clínicas electrónicas.

Consultada por la revista cableado, Heather Mattie, profesora de salud pública de la Universidad de Harvard que estudia el impacto de la IA en la atención sanitaria, confesó que quedó impresionada la primera vez que obtuvo ChatGPT. Y pedí un resumen de cómo se ha utilizado el modelado de las conexiones sociales para estudiar el VIH, un tema que ella investiga.

Pero la experta de Harvard también indicó limitaciones. Puede ser una herramienta útil para tareas como resumir un texto. Aunque hay que considerar que el bot no puede acertar al cien por cien y que puede generar resultados sesgados.

A pesar de sus beneficios, hay riesgos de que la inteligencia artificial brinde recomendaciones a los médicos con sesgos (Getty)
A pesar de sus beneficios, hay riesgos de que la inteligencia artificial brinde recomendaciones a los médicos con sesgos (Getty)

A la doctora Mattie le preocupa, especialmente, el trato que ChatGPT da a las herramientas de diagnóstico de enfermedades cardiovasculares y de puntuación de lesiones en cuidados intensivos, que tienen un historial de sesgos raciales y de género. También observó que ChatGPT en un entorno clínico a veces inventa hechos y no deja claro dónde y qué fecha tiene la información que utiliza.

Recomendado:  OpenAI presenta LLM GPT-4 multimodal: la IA más avanzada hasta el momento

Los usuarios también deben tener cuidado con el hecho de que los bots del estilo de ChatGPT pueden presentar información fabricada, adviertan los expertos. Esto puede conducir a errores graves si una persona no comprueba los hechos en las respuestas de un algoritmo. Siendo que el texto generado por la inteligencia artificial puede influir en los humanos de forma sutil.

Un estudio publicado en enero, que no ha sido revisado por pares, planteó preguntas éticas a ChatGPT y concluyó que el chatbot es un consejero moral incoherente. Pero que puede influir en la toma de decisiones humanas incluso cuando las personas saben que el consejo procede de un software de inteligencia artificial.

La inteligencia artificial se podría usar a la hora de decidir quiénes pueden acceder a diálisis renal, ensayos clínicos o terapia intensiva (Getty Images)
La inteligencia artificial se podría usar a la hora de decidir quiénes pueden acceder a diálisis renal, ensayos clínicos o terapia intensiva (Getty Images)

Trabajar como médico es mucho más que decidir en base a conocimientos médicos enciclopédicos. Por eso, algunos expertos en bioética están preocupados por la posibilidad de que los médicos pidan un consejo al bot cuando se enfrenten a una decisión ética difícil.

Por ejemplo, se podría usar para elegir qué pacientes pueden acceder a diálisis renal oa camas de cuidados intensivos, podrían ser participantes en ensayos clínicos o decidir si se hace una cirugía en caso de que un paciente tenga pocas probabilidades de supervivencia o recuperación.

Jamie Webb, bioeticista del Centro de Futuros Tecnomorales de la Universidad de Edimburgo, en el Reino Unido, y un equipo de psicólogos morales estudiaron qué faltaría para crear un “asesor moral” basado en inteligencia artificial para su uso en medicina. Se inspiraron en investigaciones anteriores que sugerían la idea.

Hay preocupación de los expertos en bioética porque la medicina implica seguir pautas éticas y las herramientas de inteligencia artificial podrían recomendar acciones incorrectas (Getty)
Hay preocupación de los expertos en bioética porque la medicina implica seguir pautas éticas y las herramientas de inteligencia artificial podrían recomendar acciones incorrectas (Getty)

Webb y sus coautores llegaron a la conclusión de que sería difícil que estos sistemas equilibraran de forma fiable distintos principios éticos. Identificaron el riesgo de que los médicos y otros profesionales pudieran sufrir una “descalcificación moral” si dependieran excesivamente de un robot en lugar de pensar ellos mismas las decisiones difíciles.

Recomendado:  Razonamiento Neural Relacional Dinámico para Sistemas Interactivos - El Blog de Investigación de Inteligencia Artificial de Berkeley

Webb dijo que a los médicos ya se les ha dicho que la inteligencia artificial que procesa el lenguaje revolucionará su trabajo, pero se han llevado una decepción. Después de ganar Jeopardy en 2010 y 2011, la división Watson de IBM se dedicó a la oncología e hizo afirmaciones sobre la eficacia de la IA en la lucha contra el cáncer.

Pero esa solución no tuvo tanto éxito en entornos clínicos como sugería la publicidad, y la empresa IBM cerró el proyecto en 2020.

Otro riesgo de la inteligencia artificial es que usa datos privados de los pacientes y pueden sufrir vulnerabilidades al ser compatibles/Archivo
Otro riesgo de la inteligencia artificial es que usa datos privados de los pacientes y pueden sufrir vulnerabilidades al ser compatibles/Archivo

En tanto, Keymanthri Moodley, del Centro de Ética Médica y Ley de la Universidad Stellenbosch, en Sudáfrica, y Stuart Rennie, profesor de la Universidad de Carolina del Norte, en Chapel Hill (Estados Unidos) escribieron un artículo en La conversación en el que advirtieron que el uso de ChatGPT conlleva el riesgo de cometer violaciones de la privacidad.

El éxito y la eficacia de la IA dependen del aprendizaje automático. Esto requiere que los datos se retroalimenten constantemente en las redes neuronales de los chatbots. Si se introduce en ChatGPT información identificable del paciente, esos datos pasan a formar parte de la información que el chatbot se mantendrá en el futuro.

De este modo, advirtieron, puede ser vulnerable a su divulgación a terceros, siendo que la confidencialidad de la información del paciente es la base de la confianza en la relación médico-paciente.

Seguir leyendo:

Cuatro consejos para no tener problemas al usar ChatGPT
Italia bloqueó el uso de ChatGPT porque “no respeta la privacidad” de los usuarios
ChatGPT y su alto consumo de agua mundial