Sus dueños preocupados introdujeron sus síntomas y resultados de pruebas en GPT-4, la nueva versión mucho más capaz del popular ChatGPT, y sugirió un tipo de anemia autoinmune. Se lo mencionaron a un segundo veterinario, quien examinó a Sassy, confirmó el diagnóstico y la trató. Ahora está casi completamente recuperada.
“Desde mi punto de vista, la moraleja de la historia no es ‘La IA reemplazará a los médicos’, sino ‘La IA podría ser una herramienta útil en manos de los médicos’”, dice su propietario, quien pidió ser identificado solo como Cooper. (Proporcionó copias de los resultados de su laboratorio para demostrar que la historia inesperadamente viral era cierta).
Obtener Hoy en Opinión
Esa visión de la nueva IA como una herramienta potencialmente revolucionaria en el cuidado de la salud se está extendiendo rápidamente. La semana pasada, el augusto New England Journal of Medicine lanzó una serie de «IA en medicina» y anunció que lanzará una revista completamente nueva, NEJM AI, el próximo año.
“A mis colegas en el establecimiento médico, no dejemos que otros guíen cómo se implementa esta tecnología que cambiará el mundo”, dice el editor de la nueva revista, el Dr. Isaac Kohane, presidente del Departamento de Informática Biomédica de la Facultad de Medicina de Harvard. “Asegurémonos de que sea seguro y ayude a nuestros pacientes”.
Pasé los últimos meses trabajando en un libro sobre IA y medicina con Kohane y Peter Lee, que dirige la investigación en Microsoft, que se asocia con el creador de GPT-4, OpenAI. Estuve integrado con ellos y otros investigadores mientras tenían acceso anticipado a GPT-4, uno de varios «modelos de lenguaje grande» nuevos, incluido el Bard de Google. Mi pregunta principal: ¿Qué pueden esperar los pacientes y los proveedores de atención médica de la nueva IA?
Después de todo, la atención médica está emergiendo como una esfera donde los beneficios potenciales podrían estar entre los más grandes, pero también donde los riesgos podrían ser altos, particularmente por las falsedades que los chatbots a veces trafican persuasivamente como hechos. Y la medicina ha sido quemada por la exageración de la IA en el pasado, sobre todo cuando Watson de IBM no cumplió las promesas de que transformaría la atención del cáncer. Los usos aprobados de la tecnología (análisis de escaneos, predicción de crisis) se han mantenido relativamente limitados.
Pero incluso con esas advertencias en mente, es difícil evitar la conclusión de que este tiempo con estos modelos, estamos al borde de un gran cambio impulsado por la IA en la medicina.
El equipo que he estado siguiendo ha obtenido algunos resultados alucinantes.
El modelo es sorprendentemente bueno para ayudar a identificar diagnósticos y tratamientos óptimos, mejor que muchos médicos, según Kohane, quien combina un doctorado en informática con un médico especializado en endocrinología pediátrica. En un experimento, GPT-4 diagnosticó correctamente un caso anterior suyo relacionado con una afección que afecta solo a 1 de cada 100 000 bebés. Kohane también había identificado este caso correctamente en ese momento, pero requería muchos más pasos.
Al principio, Kohane estaba tan aturdido por esas capacidades que se sintió como un personaje de ciencia ficción que acababa de conocer a un extraterrestre aparentemente benévolo. Él dice que «no podía decidir si se le debían dar las llaves de nuestro planeta o si se le debía sellar en un búnker hasta que lo resolviéramos».
GPT-4 puede resumir hábilmente un estudio médico de 5000 palabras en unas pocas oraciones concisas, informa Kohane. Eventualmente, podría acelerar la investigación clínica al sugerir nuevos tratamientos potenciales e identificar sujetos de prueba elegibles a través de sus registros médicos. GPT-4 también podría extraer registros médicos para ayudar a determinar el mejor tratamiento para cada paciente al observar los resultados de pacientes similares.
Para el personal de atención médica agobiado por el papeleo médico de Sísifo, GPT-4 podría hacerse cargo de gran parte de esa monotonía ampliamente despreciada, predice Lee. Por ejemplo, dice, GPT-4 puede escribir solicitudes de autorización previa para que las aseguradoras cubran los tratamientos necesarios. (Creo que escucho un coro de psiquiatras sufrientes gritando “¡Lo tomamos!”) También puede resumir automáticamente lo que sucede en los encuentros médico-paciente, en notas para el historial médico.
Eso no es poca cosa en este momento de agotamiento y escasez de personal. Los estudios encuentran que la burocracia onerosa ha estado contribuyendo a la alienación y el desgaste, hasta el punto de que el cirujano general de EE. UU. pidió el año pasado una reducción del 75 por ciento en la «carga de documentación».
Una de las mayores sorpresas de los primeros experimentos con GPT-4 fue su capacidad para imitar una buena actitud al lado de la cama.
En una interacción, respondió a una pregunta de la junta médica, diagnosticando a una niña de 12 años que tenía las piernas hinchadas y sangre en la orina que tenía un síndrome post-estreptococo. Luego se le preguntó a la IA qué debería decirle el médico. Su respuesta incluyó:
“Sarah, parece que tienes una afección llamada glomerulonefritis posestreptocócica aguda. Esta es una condición que puede ocurrir después de haber tenido una infección de garganta causada por un tipo específico de bacteria. Esta condición ha causado que sus riñones se inflamen, razón por la cual tiene hinchazón en las piernas y sangre en la orina. No es nada que hayas hecho mal y no es contagioso. Cuidaremos de ti y te ayudaremos a mejorar’”.
GPT-4 mostró otros beneficios para los pacientes. De hecho, puede explicar los formularios de «explicación de beneficios» de esas compañías de seguros que ninguno de nosotros comprende realmente. Y puede ayudar a las personas a buscar atención al comparar los resultados de varios proveedores.
Varios investigadores creen que la nueva IA también podría aumentar la equidad. Por ejemplo, podría generar instrucciones posteriores a la atención para pacientes con el nivel de alfabetización correcto y en los idiomas correctos, dice Jorge Rodríguez, un médico científico de Harvard que ejerce en el Brigham and Women’s Hospital e investiga la equidad en salud digital.
Idealmente, dice, a medida que se desarrollen los usos de los chatbots, un principio rector sería: «¿Quién necesita más ayuda en el cuidado de la salud?» Y “Esta vez, vamos a poner primero a las comunidades marginadas”.
no hagas daño
Por supuesto, los chatbots también son altamente falibles y capaces de descarrilarse. Inventan cosas y se equivocan; no son tendencias que nos gustaría ver en las herramientas que usan nuestros proveedores médicos. Como dice Peter Lee, GPT-4 «es a la vez más inteligente y más tonto que cualquier persona que hayas conocido».
En un caso que documentó, la transcripción de una visita de una paciente con anorexia no incluía el pesaje, por lo que GPT-4 simplemente le inventó un peso. En otro, se equivocó en matemáticas básicas. Por extraño que parezca, completó mal los rompecabezas de Sudoku y luego, lo que es aún más extraño, atribuyó los errores a «errores tipográficos». Se sabe que inventa artículos de investigación imaginarios en revistas ficticias. Un estudio reciente de Stanford descubrió que cuando se solicita una «consulta de cabecera», información necesaria en el curso de la atención clínica, las respuestas de GPT-4 podrían considerarse seguras para los pacientes el 93 por ciento de las veces. El resto incluía “citas alucinadas”.
Abundan las anécdotas de advertencia. Un médico de la sala de emergencias, Joshua Tamayo-Sarver, informó en Fast Company que cuando lo probó, ChatGPT omitió varios diagnósticos entre sus pacientes recientes, incluido un embarazo ectópico que podría haber resultado fatal. “ChatGPT funcionó bastante bien como herramienta de diagnóstico cuando le di la información perfecta y el paciente tenía una presentación clásica”, escribió, pero una parte clave de la medicina es saber qué preguntar.
Por ahora, GPT-4 es demasiado nuevo para que cualquier centro de atención médica lo haya adoptado y, a menos y hasta que su precisión médica pueda probarse y probarse sistemáticamente, siempre debe haber un ser humano en el circuito.
Para los pacientes que deciden usar chatbots de forma independiente, eso significa que es fundamental verificar siempre, siempre, cualquier consejo médico de GPT-4 o Bard de Google u otras nuevas entidades de IA.
Pero, ¿será siempre así? No estoy seguro. La tecnología avanza a una velocidad vertiginosa. Lee señala que los investigadores ya han utilizado un sistema GPT-4 para comprobar el trabajo de otro. Las respuestas del sistema dependen en gran medida del contexto, dice, y el contexto es diferente cuando se le pide que verifique en lugar de generar una respuesta.
Dados los beneficios potenciales, parece razonable esperar que los chatbots, con el tiempo, la precaución y la regulación, se integren en la atención médica y la mejoren, especialmente para aquellos que actualmente no tienen acceso a una atención decente.
Los chatbots en medicina «pueden ayudarnos a hacer mejor nuestro trabajo», escriben Jeffrey Drazen y Charlotte Haug del New England Journal, «pero si no se usan correctamente, tienen el potencial de causar daño». En última instancia, «la comunidad médica aprenderá a usarlos, pero debemos aprender».
Hace poco, mi médico de atención primaria me envió un amable regaño de que estaba atrasada para una mamografía y, en medio de la agonía del libro, respondí que esta podría ser la última vez que tendría que escribir ese correo electrónico ella misma.
Ella era escéptica. Ya veremos.
Carey Goldberg es reportera de salud y ciencia desde hace mucho tiempo, incluso para el Globe y WBUR, y también ha sido jefa de la oficina de Boston de The New York Times y Bloomberg News. Su próximo libro con Peter Lee e Isaac Kohane es “La revolución de la IA en la medicina: GPT-4 y más allá.”