Saltar al contenido

La Asociación Médica Australiana pide regulaciones nacionales sobre la IA en el cuidado de la salud

27 de mayo de 2023

Se ha ordenado a los médicos de Perth que no utilicen la tecnología de bots de IA, y las autoridades están preocupadas por la confidencialidad de los pacientes.

En un correo electrónico obtenido por ABC, el Servicio de Salud Metropolitano del Sur de Perth (SMHS), que abarca cinco hospitales, dijo que parte del personal había estado usando software, como ChatGPT, para escribir notas médicas que luego se cargaban en los sistemas de registro de pacientes.

«De manera crucial, en esta etapa, no hay garantía de confidencialidad del paciente cuando se usa la tecnología de bots de IA, como ChatGPT, ni comprendemos completamente los riesgos de seguridad», dijo el correo electrónico del director ejecutivo de SMHS, Paul Forden.

«Por esta razón, el uso de la tecnología de inteligencia artificial, incluido ChatGPT, para actividades relacionadas con el trabajo que incluya cualquier paciente o información de servicios de salud potencialmente confidencial debe cesar de inmediato».

Desde la directiva, el servicio ha aclarado que solo un médico usó la herramienta de IA para generar un resumen del alta del paciente y no hubo violación de la información confidencial del paciente.

Chat GPT se ha convertido en una herramienta cotidiana utilizada por personas en una variedad de profesiones.()

Convocatoria de normativa nacional

Sin embargo, el caso pone de manifiesto el nivel de preocupación en el sector de la salud por los nuevos modelos de IA no regulados que siguen saliendo al mercado.

La principal asociación médica de Australia insta a la precaución y exige regulaciones nacionales para controlar el uso de la inteligencia artificial en el sistema de salud.

El presidente de WA de la Asociación Médica Australiana, Mark Duncan-Smith, dijo que no creía que el uso de herramientas como ChatGPT estuviera generalizado en la profesión.

Recomendado:  Volverse verde en el campo de la robótica suave -- ScienceDaily
El presidente de AMA WA, Mark Duncan-Smith, dijo que el uso de Chat GPT por parte de profesionales médicos era inapropiado.()

«Probablemente haya algunos geeks de la medicina que simplemente lo están probando y viendo cómo es», dijo la Dra. Duncan-Smith.

«No estoy seguro de cómo ahorraría tiempo o esfuerzo.

«Se corre el riesgo de traicionar la confianza y confidencialidad del paciente y ciertamente no es apropiado en esta etapa».

Esa opinión es compartida por Alex Jenkins, quien dirige el WA Data Science Innovation Hub en la Universidad de Curtin.

Alex Jenkins estuvo de acuerdo en que ChatGPT no era una plataforma adecuada para información confidencial. ()

Jenkins dijo que el desarrollador de ChatGPT había introducido recientemente una forma en que los usuarios podían evitar que se compartiesen sus datos, pero que aún no era una plataforma adecuada para información confidencial como los registros de los pacientes.

«OpenAI ha realizado modificaciones para garantizar que sus datos no se utilicen para entrenar versiones futuras de la IA», dijo.

«Pero aún así, poner cualquier tipo de datos en un sitio web público lo expone a cierto riesgo de que los piratas informáticos tomen esos datos o que el sitio web esté expuesto a vulnerabilidades de seguridad».

Potencial de la IA en la salud