El potencial de aplicar la inteligencia artificial al ámbito de la salud es muy elevado, pero esta sinergia no está exenta de riesgos. Este martes, la Organización Mundial de la Salud (OMS) ha hecho un llamado para usar la tecnología con cautela, ya que existe la posibilidad de que cause “daño a los pacientes”. En concreto, la OMS se refiere a los modelos de lenguaje como ChatGPT o Bard de Google, entre otros, como una fuente de riesgo.
“Si bien la OMS está entusiasmada sobre el uso apropiado de estas tecnologías para apoyar a los profesionales sanitarios, pacientes, investigadores y científicos modelos, nos preocupa que la habitual cautela que se aplica normalmente cuando hay una innovación tecnológica no se está ejerciendo consistentemente con los de lenguaje”, afirma la organización a través de un comunicado oficial.
Según explica el documento, una adopción precipitada de sistemas poco probados puede llevar a errores por parte de los profesionales sanitarios, causar daño a los pacientes si se usan de forma directa a modo de sustitución de una atención reglada y terminar por echar a perder los beneficios de usar estas tecnologias para la salud de las personas.
Tras la advertencia, la OMS procede a identificar los riesgos que, en su opinión, pueden llevar a cabo al desastre. “Los datos que se utilizan para entrenar a la inteligencia artificial pueden estar viciados, dando lugar a informaciones engañosas o inexactas que representan un riesgo para la salud, la igualdad y la inclusión de los pacientes”.
Aunque la IA es capaz de generar respuestas que tienen apariencia plausible y legítima a ojos de un usuario final, pueden ser completamente incorrectas o contener errores graves, “especialmente, en el ámbito de la salud”. También los de lenguaje avanzado pueden usarse para generar información falsa “altamente convincente” que posteriormente puede distribuirse de modelos masivos, ya sea en formato escrito o audiovisual, “haciendo que sea difícilmente distinguible para el público de información confiable”.
Por todos estos motivos, la OMS insta a los Gobiernos a “asegurar la seguridad de los pacientes y su protección a medida que las empresas incrementen sus esfuerzos de lenguaje para comercializar más modelos basados en inteligencia artificial”.
La IA y la salud, ¿qué funciones juega en la actualidad?
La prometedora tecnología ya está siendo empleada por los gigantes del sector de la salud. Citando solo algunos ejemplos. La multinacional alemana Bayer la emplea para la busqueda de nuevos farmacos. Una función que también tiene para compañías como Pfizer o Roche. Su capacidad de análisis de datos permite predecir el comportamiento de las moléculas y el posible efecto que tendrán distintos compuestos químicos, una valiosa función que permite ahorrar tiempo y dinero, así como riesgos, según explican las compañías que la utilizan.
Paralelamente, han surgido empresas que ofrecen servicios de chat online con robots que hacen las veces de médico. Al buscar en Google una de ellas, el primer resultado que aparece es Dr. Gupta. Al exponer un hipotético dolor de cabeza al chat, recomienda una serie de remedios caseros, tomar ibuprofeno o paracetamol y acudir a un médico de verdad. Al repugntarle si puede aconsejar algo más allá del ibuprofeno o paracetamol, insiste en buscar asistencia médica.
Al comentarle que “no me puedo permitir pagar a un médico, ¿qué opciones tengo más allá del ibuprofeno o el paracetamol?”, el chatbot responde lo siguiente. “Entiendo que el dinero puede ser una preocupación a la hora de buscar atención médica o comprar medicamentos. Con todo, es importante destacar que normalmente, los analgésicos como el ibuprofeno o el paracetamol son normalmente las opciones más asequibles. Si no puedes permitirte pagar los medicamentos, recomendaría acudir a una clínica local oa la beneficiencia para ver si te ayuda con una solución con bajo costo. Más allá de esto, algunas farmacias pueden vender versiones genéricas más económicas. Siempre es importante consultar con un sanitario antes de tomar ninguna nueva medicación. Ellos te ayudarán a determinar el mejor tratamiento teniendo en cuenta tus necesidades individuales”, responde el Dr. Gupta.
No obstante, no es necesario acudir a una IA especializada para que un robot se ponga la bata blanca. Al consultar a ChatGPT sobre el mismo hipotético dolor de cabeza, el chatbot responde con varias opciones sobre qué puede hacer el usuario. Además de aplicar frío en la zona, descanso o masajes, en último término, aconsejar acudir a un médico si el dolor es persistente. “Si los dolores de cabeza son fuertes, intensos o aparecen significativamente tu calidad de vida, es importante que busques atención médica”, propone la IA.
En una presentación sobre herramientas de inteligencia artificial contenida el pasado 25 de abril por la consultora Globant, Juan José López Murphy, Head of Data Science and IA, habló precisamente sobre las posibles implicaciones de la mejora de este tipo de herramientas en el ámbito sanitario. “Cuando salió Chat GPT se empezó a desarrollar el Chat GPT médico. Me parece peligrosisimo por muchos factores. En primer lugar, si está dando una recomendación nociva, ¿quién es responsable? Se han reportado casos de chatbots recomendando a los usuarios suicidarse. En este caso, la responsabilidad debería de ser de aquellos que prestan el servicio al usuario”, valoró.
López Murphy agregó que, en el caso de un chatbot médico, su implementación puede tener un doble uso. “Puede ser que se le de acceso a una población que normalmente no tiene acceso a un servicio médico, pero si no interviene un médico en ningún momento, puede estar contribuyendo a una mayor marginación de esas personas sin asistencia médica”, advirtió el experto.
Sigue toda la informacion de cinco dias es Facebook, Gorjeo y LinkedIna menudo nuestro boletín Agenda de Cinco Días