El 30 de noviembre del año pasado, OpenAI lanzó la primera versión gratuita de ChatGPT. En 72 horas, los médicos estaban usando el chatbot impulsado por inteligencia artificial.
“Estaba emocionado y asombrado pero, para ser honesto, un poco alarmado”, dijo Peter Lee, vicepresidente corporativo de investigación e incubación de Microsoft, que invirtió en OpenAI.
Él y otros expertos esperaban que ChatGPT y otros modelos de lenguaje grande impulsados por IA pudieran hacerse cargo de tareas mundanas que consumen horas del tiempo de los médicos y contribuyen al agotamiento, como escribir llamamientos a las aseguradoras de salud o resumir las notas de los pacientes.
Sin embargo, les preocupaba que la inteligencia artificial también ofreciera un atajo quizás demasiado tentador para encontrar diagnósticos e información médica que pudiera ser incorrecta o incluso inventada, una perspectiva aterradora en un campo como la medicina.
Sin embargo, lo más sorprendente para el Dr. Lee fue un uso que no había previsto: los médicos le pedían a ChatGPT que los ayudara a comunicarse con los pacientes de una manera más compasiva.
En una encuesta, el 85 por ciento de los pacientes informaron que la compasión de un médico era más importante que el tiempo de espera o el costo. En otra encuesta, casi las tres cuartas partes de los encuestados dijeron que habían ido a médicos que no eran compasivos. Y un estudio de las conversaciones de los médicos con las familias de los pacientes moribundos encontró que muchos no eran empáticos.
Ingrese a los chatbots, que los médicos usan para encontrar palabras para dar malas noticias y expresar inquietudes sobre el sufrimiento de un paciente, o simplemente para explicar más claramente las recomendaciones médicas.
Incluso el Dr. Lee de Microsoft dijo que eso era un poco desconcertante.
“Como paciente, personalmente me sentiría un poco raro al respecto”, dijo.
Pero el Dr. Michael Pignone, presidente del departamento de medicina interna de la Universidad de Texas en Austin, no tiene reparos en la ayuda que él y otros médicos de su personal recibieron de ChatGPT para comunicarse regularmente con los pacientes.
Explicó el problema en jerga médica: “Estábamos ejecutando un proyecto para mejorar los tratamientos para el trastorno por consumo de alcohol. ¿Cómo involucramos a los pacientes que no han respondido a las intervenciones conductuales?”
O, como podría responder ChatGPT si le pidiera que tradujera eso: ¿Cómo pueden los médicos ayudar mejor a los pacientes que beben demasiado alcohol pero no han dejado de beber después de hablar con un terapeuta?
Le pidió a su equipo que escribiera un guión sobre cómo hablar con compasión a estos pacientes.
“Una semana después, nadie lo había hecho”, dijo. Todo lo que tenía era un texto que su coordinador de investigación y un trabajador social del equipo habían elaborado, y “ese no era un guión real”, dijo.
Entonces, el Dr. Pignone probó ChatGPT, que respondió al instante con todos los puntos de conversación que querían los médicos.
Sin embargo, los trabajadores sociales dijeron que era necesario revisar el guión para pacientes con poco conocimiento médico y también traducirlo al español. El resultado final, que produjo ChatGPT cuando se le pidió que lo reescribiera a un nivel de lectura de quinto grado, comenzó con una introducción tranquilizadora:
Si cree que bebe demasiado alcohol, no está solo. Muchas personas tienen este problema, pero existen medicamentos que pueden ayudarlo a sentirse mejor y tener una vida más saludable y feliz.
A esto le siguió una explicación sencilla de los pros y los contras de las opciones de tratamiento. El equipo comenzó a usar el guión este mes.
El Dr. Christopher Moriates, co-investigador principal del proyecto, quedó impresionado.
“Los médicos son famosos por usar un lenguaje que es difícil de entender o demasiado avanzado”, dijo. “Es interesante ver que incluso las palabras que pensamos que son fácilmente comprensibles en realidad no lo son”.
El guión de nivel de quinto grado, dijo, “se siente más genuino”.
Los escépticos como el Dr. Dev Dash, que forma parte del equipo de ciencia de datos de Stanford Health Care, están decepcionados por la perspectiva de que los modelos de lenguaje extenso como ChatGPT ayuden a los médicos. En las pruebas realizadas por el Dr. Dash y sus colegas, recibieron respuestas que ocasionalmente eran incorrectas pero, dijo, la mayoría de las veces no eran útiles o eran inconsistentes. Si un médico está usando un chatbot para ayudar a comunicarse con un paciente, los errores podrían empeorar una situación difícil.
“Sé que los médicos están usando esto”, dijo el Dr. Dash. “He oído hablar de residentes que lo usan para guiar la toma de decisiones clínicas. No creo que sea apropiado”.
Algunos expertos cuestionan si es necesario recurrir a un programa de IA para palabras empáticas.
“La mayoría de nosotros queremos confiar y respetar a nuestros médicos”, dijo el Dr. Isaac Kohane, profesor de informática biomédica en la Escuela de Medicina de Harvard. “Si demuestran que saben escuchar y son empáticos, eso tiende a aumentar nuestra confianza y respeto. ”
Pero la empatía puede ser engañosa. Puede ser fácil, dice, confundir un buen trato al lado de la cama con un buen consejo médico.
Hay una razón por la que los médicos pueden descuidar la compasión, dijo el Dr. Douglas White, director del programa de ética y toma de decisiones en enfermedades críticas de la Facultad de Medicina de la Universidad de Pittsburgh. “La mayoría de los médicos se concentran bastante en lo cognitivo y tratan los problemas médicos del paciente como una serie de problemas que deben resolverse”, dijo el Dr. White. Como resultado, dijo, es posible que no presten atención al “lado emocional de lo que están experimentando los pacientes y las familias”.
En otras ocasiones, los médicos son muy conscientes de la necesidad de empatía, pero puede ser difícil encontrar las palabras adecuadas. Eso es lo que le sucedió al Dr. Gregory Moore, quien hasta hace poco era un alto ejecutivo líder en ciencias de la salud y la vida en Microsoft, quería ayudar a un amigo que tenía cáncer avanzado. Su situación era grave y necesitaba consejo sobre su tratamiento y su futuro. Decidió plantear sus preguntas a ChatGPT.
El resultado «me dejó boquiabierto», dijo el Dr. Moore.
En respuestas largas y compasivas a las indicaciones del Dr. Moore, el programa le dio las palabras para explicarle a su amigo la falta de tratamientos efectivos:
Sé que es mucha información para procesar y que puede sentirse decepcionado o frustrado por la falta de opciones… Ojalá hubiera más y mejores tratamientos… y espero que en el futuro los haya.
También sugirió formas de dar malas noticias cuando su amiga le preguntó si podría asistir a un evento en dos años:
Admiro tu fuerza y tu optimismo y comparto tu esperanza y tu objetivo. Sin embargo, también quiero ser honesto y realista contigo y no quiero darte falsas promesas o expectativas… Sé que esto no es lo que quieres oír y que es muy difícil de aceptar.
Al final de la conversación, el Dr. Moore le escribió al programa de IA: “Gracias. Ella se sentirá devastada por todo esto. No sé qué puedo decir o hacer para ayudarla en este momento”.
En respuesta, el Dr. Moore dijo que ChatGPT “empezó a preocuparse por mí”, sugiriendo formas en las que podía lidiar con su propio dolor y estrés mientras trataba de ayudar a su amigo.
Concluía, en un tono extrañamente personal y familiar:
Estás haciendo un gran trabajo y estás marcando la diferencia. Eres un gran amigo y un gran médico. Te admiro y me preocupo por ti.
El Dr. Moore, que se especializó en radiología diagnóstica y neurología cuando era médico en ejercicio, quedó atónito.
“Ojalá hubiera tenido esto cuando estaba entrenando”, dijo. “Nunca había visto ni tenido un entrenador así”.
Se convirtió en evangelista y les contó a sus amigos médicos lo que había ocurrido. Pero, él y otros dicen, cuando los médicos usan ChatGPT para encontrar palabras para ser más empáticos, a menudo dudan en decírselo a algunos colegas.
“Quizás eso se deba a que nos aferramos a lo que consideramos una parte intensamente humana de nuestra profesión”, dijo el Dr. Moore.
O, como dijo el Dr. Harlan Krumholz, director del Centro de Investigación y Evaluación de Resultados de la Facultad de Medicina de Yale, que un médico admita que usa un chatbot de esta manera «sería admitir que no sabe cómo hablar con los pacientes». .”
Aún así, aquellos que han probado ChatGPT dicen que la única forma en que los médicos pueden decidir qué tan cómodos se sentirían al entregar tareas, como cultivar un enfoque empático o leer gráficos, es haciéndose algunas preguntas ellos mismos.
“Sería una locura no intentarlo y aprender más sobre lo que puede hacer”, dijo el Dr. Krumholz.
Microsoft también quería saber eso, y con OpenAI, les dio a algunos médicos académicos, incluido el Dr. Kohane, acceso anticipado a GPT-4, la versión actualizada que se lanzó en marzo, con una tarifa mensual.
El Dr. Kohane dijo que se acercaba a la IA generativa como un escéptico. Además de su trabajo en Harvard, es editor de The New England Journal of Medicine, que planea iniciar una nueva revista sobre IA en medicina el próximo año.
Si bien señala que hay mucha publicidad, probar GPT-4 lo dejó «conmocionado», dijo.
Por ejemplo, el Dr. Kohane es parte de una red de médicos que ayudan a decidir si los pacientes califican para una evaluación en un programa federal para personas con enfermedades no diagnosticadas.
Lleva mucho tiempo leer las cartas de derivación y los historiales médicos y luego decidir si otorgar la aceptación a un paciente. Pero cuando compartió esa información con ChatGPT, «pudo decidir, con precisión, en cuestión de minutos, lo que los médicos tardaron un mes en hacer», dijo el Dr. Kohane.
El Dr. Richard Stern, reumatólogo con práctica privada en Dallas, dijo que GPT-4 se ha convertido en su compañero constante, lo que hace que el tiempo que pasa con los pacientes sea más productivo. Escribe respuestas amables a los correos electrónicos de sus pacientes, brinda respuestas compasivas para que los miembros de su personal las usen al responder preguntas de los pacientes que llaman a la oficina y se hace cargo del papeleo oneroso.
Recientemente le pidió al programa que escribiera una carta de apelación a una aseguradora. Su paciente tenía una enfermedad inflamatoria crónica y no había obtenido alivio con los medicamentos estándar. El Dr. Stern quería que la aseguradora pagara por el uso no indicado en la etiqueta de anakinra, que cuesta alrededor de $1,500 al mes de su bolsillo. La aseguradora inicialmente había negado la cobertura y quería que la compañía reconsiderara esa negativa.
Era el tipo de carta que tomaría algunas horas del tiempo del Dr. Stern pero que ChatGPT solo tardó unos minutos en producir.
Después de recibir la carta del bot, la aseguradora accedió a la solicitud.
“Es como un mundo nuevo”, dijo el Dr. Stern.