Saltar al contenido

Los usos del ‘chatbot’ en la consulta médica y en la investigación: esto opinan los expertos | salud | La Revista

20 de mayo de 2023

Asi como hay entusiasmo y argumentos a favor de herramientas alimentadas por inteligencia artificial (IA), como los chatbotsespecialmente en el area de la investigacion medica y cientifica, hay ciertas inquietudes de los profesionales.

Las aplicaciones de conversación por IA prometen simplificar la escritura académica y reducir la carga de trabajo de los investigadores y educadores en el 80 %. Herramientas como ChatPDF ofrecen leer y sintetizar documentos de revistas científicas.

Hay algunas consideraciones éticas y científicas en esta área. Esto ahorraría horas de trabajo, pero también crea dudas, planteadas por usuarios en las redes sociales, por ejemplo: el autor que subió su propio papel y formuló una serie de preguntas que el sistema le respondió usando información falsa y citas que no están en el documento original.

Otro tuvo mejores resultados a medida que hizo preguntas más específicas, pero dado que fue él quien escribió el papel, sabe qué preguntar. Y otro más cuestionó si al subir un PDF a la herramienta no estaría violando la licencia bajo la cual tuvo acceso al artículo.

“Bienvenida la IA, pero siempre con el criterio humano”

El más famoso de estos chats en los últimos meses ha sido GPT. Es una tecnología que ha llegado para quedarse, a decir del doctor Fabián Ortiz Herbener, nefrólogo. «Se dice que desde la aparición del internet es el paso más revolucionario». desarrollar nuevas tecnologías para aprovechar la versatilidad de los chatbots manejados con IA. “Un ejemplo, si tengo muchos datos de resfriados en un sector en concreto, Puedo predecir el brote de influenza, a qué altura del próximo año y en qué ciudades”.

Ortiz opina que el desarrollo de la IA en la próxima década será “a un ritmo frenético”, y destaca que es una fase que comienza igual para todo el mundo. “Latinoamérica debería aprovechar estas oportunidades para desarrollar herramientas que en otros países no se permitan, por temas de restricciones”.

¿Qué falta para darle un buen uso a la IA? “Criterio. Al fin y al cabo, soy yo quien le da las directrices. El chat GPT no tiene criterio, tiene información, que no es lo mismo. Mis estudiantes de Medicina y de posgrado me dicen que si la información está en el teléfono, para qué tener en el cerebro los datos de los niveles normales de colesterol en sangre”. Esa es una visión demasiado simplificada. En la realidad, los pacientes tienen comorbilidades, diversas condiciones médicas cuyo análisis en conjunto lleva al diagnóstico. “Hay que tocar al paciente en la exploración física, eso un chatbot no lo puede hacer”.

Por supuesto, los pacientes también pueden consultar a la IA. “Si le pongo al chat GPT una serie de síntomas e incluso los exámenes de laboratorio que me acabo de hacer, pienso que me puedo ahorrar la consulta con el profesional (ya está pasando), pero eso no garantiza el siguiente paso, que la persona seguro».

Recomendado:  Sam Altman (ChatGPT), en el Capitolio: “Si la inteligencia artificial sale mal, puede salir muy mal” | tecnología

El comportamiento de los consultores ha cambiado. Han comenzado a diferir las consultas: primero el buscador, luego la IA. ¿Hasta dónde puedes ayudar esto? Puede darles un diagnóstico presuntivo (no confirmado) y también dar una lista general de medicamentos para esas dolencias, que no equivale a la prescripción de un profesional.

En cambio, la IA bien utilizada (orientada por médicos) podría ayudar a que los pacientes tiendan a ir menos a consulta, y cuando lo hagan, vayan informados (no diagnosticados ni medicados) y la consulta sea de mayor rendimiento. “Yo invierto 45 a 60 minutos por paciente, pero si viene informado, se optimiza todo”. ¿Están los médicos en alguna desventaja? Si, reconoce Ortiz. No manejan la cantidad de datos que tiene la IA. “Puedo leer muchos artículos al mes, pero no todo lo que se publica. El chatbot, si».

El chatbot podría también ayudar a un médico con dudas a hacer un diagnóstico diferencial. De entre varias opciones, podría señalar la mejor acuerdo a la evidencia, y disminuir así el margen de error. “Pero claro, ya hice un análisis situacional previo. En el momento en que tengo la certeza diagnóstica, podría hacer una doble confirmación con la inteligencia artificial; si coincidimos los dos, perfecto, minimizo mi riesgo de error y el paciente se beneficia más”.

Pero no suplirá la interacción médico-paciente. “Como profesor, yo llevo a un actor a clase y allí no hay la IA, allí necesito que el estudiante aprenda a examinar, a explorar, a preguntar: habilidades duras y blandas. ¿Cómo ir al paciente?”.

Por tanto, la respuesta es usar la información que proporciona estas herramientas para liberar tiempo y emplearlo en formar mejor criterio en los estudiantes. “Se van a crear más plazas de trabajo para desarrollar las herramientas con inteligencia artificial. Si no subimos al tren de la tecnología y del desarrollo, nos vamos a quedar muy atrás. Ahora es el momento de evitar la brecha, tenemos que subir”.

El chatbot no es infalible: algunas consideraciones éticas

Los académicos comenzando a comentar sobre los chatbots en redes sociales desde 2022, y grupos locales han comenzado a incorporarlo, señala el doctor Iván Chérrez Ojeda, especialista en alergia y neumología y director del centro Respiralab, donde se hace investigación con el apoyo de la Universidad Espíritu Santo.

¿Cómo lo están aplicando? “Nos reunimos unas dos a la semana en los ateneos, para discutir los casos difíciles, citando a otros colegas veces. Ahora ponemos los datos en el chat GPT”, explica, y agrega que lo importante con esta herramienta es saber qué preguntar.

Uno de los proyectos más recientes es averiguar qué saben los médicos y los estudiantes sobre el chat GPT, cuyo uso se ha multiplicado en el segundo grupo, ya que les ayuda a hacer las tareas. “En algunas universidades de Estados Unidos se dieron cuenta de que alumnos de primer año entregaban tareas que parecían de cuarto año. El profesor tiene que estar preparado para lo que se viene, replantearse qué tipo de tareas va a mandar en el futuro”, pues este chatbot, dependiendo de las instrucciones, puede escribir una tesis o un resumen de cualquier texto.

Recomendado:  ¿Qué es Auto-GPT y en qué se diferencia de ChatGPT?

“Las revistas académicas de primer nivel ya están creando sistemas para saber quién ha hecho una escritura científica usando solo la IA; esta herramienta nos da una idea, ayuda mucho, pero no es ciento por ciento efectiva”, advierte Chérrez.

¿Y los pacientes? Podrían sentirse contenidos cuando el diagnóstico del médico coincida con los datos de la IA, y desesperarse si no es así. “El cerebro humano tiene que interpretar todos estos resultados. Usted puede tener toda la información, pero otra cosa es hablar con el paciente, escucharlo, contenerlo. El enfermo va con situaciones y sentimientos; el profesional tiene que saber como hablarle. Muchos colegas pueden perder pacientes cuando son muy duros o no les explican bien. Ese contacto humano nunca puede faltar”.

¿Cómo pueden los médicos empezar a capacitarse en IA? Tomando cursos como los de Udemy, como hicieron el doctor Chérrez y su equipo, pensando en replicarlos con grupos locales. ¿Qué debería saber si está interesado en el tema?

  1. Familiarícese con la tecnología y la práctica.
  2. Aprenda a preguntar al chatbot. El desempeño de la especificidad de sus preguntas.
  3. Hay versión en español, pero la que está en inglés va más avanzada.
  4. Hay versión gratuita y de pago. Aprenda la primera, y luego decida si le conviene una suscripción pagada.
  5. Pida siempre las referencias bibliográficas y verifíquelas. Esta no es una herramienta infalible. Necesita supervisión humana. Póngala a prueba para no faltar a la ética.
  6. Respete siempre la privacidad y confidencialidad.

“Nos hemos dado cuenta de que (el chatbot) a veces pone referencias que no existen. Usted debe estar consciente de eso, podría fallar si le cree todo”.

Fallas de seguridad y errores de sesgo

Hablando de posibles fallas y errores, el experto en seguridad informática Rafael Bonilla Armijos, docente de la Facultad de Ingeniería en Electricidad y Computación de la Espol, ve dos posibles problemas al usar los chatbots

  • El primero es de seguridad. “Estas herramientas en línea permitirían a otras personas tener acceso a información privada, sensible o confidencial. Equivale a que un tercero pueda ver el papel de un autor (sin pagar) cuando se supone que eso no es posible. En general, las herramientas en línea sí cuidan ese aspecto, pero nada las exime de un ataque informático. Acaba de pasar algo así con ChatGPT”, dice refiriéndose a una brecha de vulnerabilidad ocurrida a multas de marzo de este año que causó la caída del sistema mientras la compañía de investigación de inteligencia artificial OpenAI reparaba el error. Por lo general, era posible infiltrarse en la cuenta de alguien, revisar su historial de chat y acceder a su información bancaria sin ser detectado.
  • “El tema de las respuestas equivocadas no es algo de seguridad, sino un problema asociado con todas estas herramientas de AI. Ellas aprenden de un conjunto de documentos (corpus), y si en ese corpus hay errores, las AI van a responder con errores. Por ejemplo, digamos que en el corpus hay 7 sitios de mediana confiabilidad diciendo que “Al empate Calceta” lo dijo Gustavo Cerati y tres otros sitios de alta confiabilidad dicen que lo dijo Justino Loor (respuesta correcta). Las AI ‘aprenderán’ que lo dijo Cerati”indica, simplificando cómo funcionan los chatbots
Recomendado:  Por qué deberías estudiar Inteligencia Artificial

Por estos motivos, la inteligencia artificial requiere de entrenamiento. “Es fundamental que no haya sesgos, sino un manejo ético y transparente”, dice Andrés Maldonado, gerente general de IBM Ecuador. “Las herramientas capacitadas en datos a escala de internet pueden contener sesgos humanos inherentes”.

Además, hay que saber de dónde proviene la información académica, por qué la herramienta con IA sugiere ese texto y no otro, y quién es el autor original. Es un tema de ética y de detección de sesgos.

En cuanto a la tendencia de la IA conversacional a ‘inventar’ datos y referencias, Maldonado recomienda a las empresas seguras de que existen medidas de protección adecuadas para proporcionar pruebas de que la IA en uso es transparente, gobernada y confiable. “La inteligencia artificial no sólo debe ‘alimentarse’ o entrenarse con información verídica, sino entregar la información correcta”.

La propuesta de IBM para sus clientes se aseguró de cómo se adquirieron los datos de entrenamiento para construir y entrenar los modelos de IA.

Una de las limitaciones de la IA es que, por estar en constante evolución, siempre tiene aprendizajes y usos nuevos, y faltan expertos que sepan aprovechar las capacidades de esta tecnología, pero también darle los usos correctos, dice Maldonado. “Solo para dar un contexto en el plano empresarial: un estudio de IBM en 2022 sobre adopción de IA revela que (…) no todas las organizaciones en América Latina toman medidas para garantizar que su IA sea responsable y confiablecomo reducir los sesgos (24 %), dar seguimiento a las variaciones de desempeño y/oa la desviación de modelos (34 %) y garantizar que se puedan explicar las decisiones que toma la IA (39 %)”. (I)