Saltar al contenido

Un chatbot que es cauteloso con GPT, los pronunciamientos de AI y un VC mira a Israel

15 de junio de 2023

Está leyendo la edición web de STAT Health Tech, nuestra guía sobre cómo la tecnología está transformando las ciencias biológicas. Regístrese para recibir este boletín en su bandeja de entrada todos los martes y jueves.

El chatbot de salud mental que no quiere GPT (todavía)

Adobe

Wysa lanzó su chatbot impulsado por IA que ayuda a las personas a controlar su salud mental mucho antes ChatGPT alimentó el entusiasmo por las tecnologías que parecen pensar y hablar como humanos. Pero mientras otras empresas se apresuran a encontrar formas de incorporar la IA generativa en el cuidado de la salud, Wysa está adoptando un enfoque mucho más cauteloso hacia la tecnología, dijo el cofundador y presidente de la empresa. Ramakant Vempati me dijo.

El bot interactivo de Wysa utiliza técnicas de la terapia cognitiva conductual para ayudar a las personas a controlar la ansiedad, el estrés y otros problemas comunes. Pero bajo el capó, no comparte el ADN de ChatGPT: el bot utiliza el procesamiento de lenguaje natural para interpretar las entradas de los usuarios, pero siempre entrega una de sus respuestas previamente escritas y examinadas. Sin respuestas generativas significa que no hay contenido potencialmente inseguro.

Es una fórmula que ha estado funcionando hasta ahora para Wysa, que anunció una ronda de financiación de la Serie B el año pasado y dice que 6 millones de personas han probado su aplicación. Wysa está disponible gratuitamente para los consumidores con opciones de contenido pago y también es utilizado por el Reino Unido servicio Nacional de Salud y grupos de empleadores y aseguradoras estadounidenses.

Vempati dijo que la compañía ha respondido muchas preguntas sobre ChatGPT e incluso está teniendo conversaciones activas con un puñado de clientes sobre posibles casos de uso. Pero como la compañía describió en una guía reciente de IA generativa, no se sienten cómodos lanzando actualizaciones que no están completamente seguros de que funcionarán de manera segura y confiable. Aún así, con las medidas de seguridad y las pruebas adecuadas, Vempati dijo que cree que existe la oportunidad de usar la IA generativa para hacer cosas como ayudar a la empresa a traducir sus guiones a otros idiomas o hacer que la conversación del bot sea menos seca y repetitiva. Sin embargo, tiene claro que la compañía aún no se ha embarcado en ninguna actualización.

Recomendado:  El futuro de la cadena de suministro | Noticias

Vempati dijo que la exageración en torno a ChatGPT ha creado una apertura al chat como mecanismo de entrega de atención de salud mental, pero también ha elevado el nivel de calidad.

“Las expectativas han aumentado en términos de lo que el servicio debe y puede hacer, lo que creo que probablemente sea un llamado a la acción para que digamos que debe comenzar a brindar una conversación muy humana, a veces Wysa no lo hace”, dijo. “Entonces, ¿cómo se equilibra la seguridad con la demanda del cliente?”

Pronunciamientos de IA en abundancia

Hablando de la exageración de la IA, el rumor actual ha generado la necesidad, al parecer, de que las instituciones históricas asuman posiciones públicas o se organicen en torno a la idea de hacer IA de manera segura y ética. Solo esta semana hemos visto:

  • Medicina de Stanford anunció el lanzamiento de AI responsable para una salud segura y equitativa, o RAISE-Health, que será codirigido por el decano de la escuela lloyd menor y profesor de informática Fei Fei Li. Según el comunicado, el esfuerzo “establecerá una plataforma de referencia para la IA responsable en salud y medicina; definir un marco estructurado para normas y salvaguardas éticas; y convocar regularmente a un grupo diverso de innovadores multidisciplinarios, expertos y tomadores de decisiones”.
  • En su reunión anual, Asociación Médica de Estados Unidos Los líderes pidieron una «mayor supervisión regulatoria del uso de IA por parte de las aseguradoras en la revisión de reclamos de pacientes y solicitudes de autorización previa», citando una investigación de ProPublica que reveló que Cigna estaba utilizando la tecnología para permitir que los médicos rechazaran un gran número de reclamaciones sin leer los archivos de los pacientes. Y a principios de este año, una investigación de STAT descubrió que los planes Medicare Advantage usan IA para cortar la atención a las personas mayores.
  • Medicina naturalel Lanceta, PNAS, y otros editores están trabajando juntos para desarrollar estándares para el «uso ético y la divulgación de ChatGPT en la investigación científica». En un correo electrónico, un representante dijo que existe la preocupación de que el uso generativo de IA pueda conducir al plagio y al trabajo derivado, pero que una prohibición total de la tecnología podría ser miope.
Recomendado:  ¿Puede la IA que controla ChatGPT ayudar a detectar los primeros signos de la enfermedad de Alzheimer? -- Ciencia diaria

Las asociaciones de salud de General Catalyst se expanden a Israel

gigante de riesgo catalizador general, el patrocinador de empresas como warby parker y airbnbestá ampliando la lista de sistemas de salud asociados que prueban y utilizan tecnología desarrollada por las empresas de su cartera. Centro Médico Sheba es el primer socio israelí en unirse a los 15 sistemas de salud con los que GC ya trabaja, incluidos HCA, Jefferson, entre montañasy más.

Todos son parte de lo que GC llama su «ecosistema de garantía de la salud», que planea crecer aún más al agregar pagadores y potencialmente compañías farmacéuticas, GC’s daryl tol, quien encabeza esa división, le dijo a Mohana Ravindranath de STAT. Las asociaciones formales con estos grupos externos ayudan a GC a cerrar la brecha entre el ritmo conservador y regulado de la atención médica tradicional y el mundo de las empresas emergentes, que es «ad hoc, de rápido movimiento, no siempre tan sistemático», dijo.

El objetivo no es solo integrar potencialmente la tecnología estadounidense en Sheba, sino también aprovechar los productos que surgen de las nuevas empresas israelíes. “Cuanto más creamos una capacidad global, una economía global que pueda suavizar [cultural and regulatory] diferencias, más exitosas pueden ser esas nuevas empresas”, dijo.

Fracasa propuesta para hacer un mejor seguimiento de los dispositivos médicos

Un panel de expertos que asesora al gobierno federal votó para no recomendar una serie de actualizaciones a los formularios de reclamos de Medicare, incluida una propuesta que habría agregado identificadores de dispositivos médicos al registro en papel. Estos números de identificación únicos se adjuntan a todos los dispositivos médicos, pero rara vez se agregan a los registros de salud, lo que dificulta la retirada de productos defectuosos.

Recomendado:  GPT-4 de OpenAI llegará a las salas de escritores de programas de comedia

Como escribe Lizzy Lawrence de STAT, los formularios de reclamos de Medicare no se han actualizado desde 2009, y el Comité Nacional de Estadísticas Vitales y de Salud votó por no seguir adelante con las revisiones ahora debido a obstáculos técnicos. El Centros de Servicios de Medicare y Medicaid se ha estado quejando de la dificultad de agregar identificadores desde al menos 2015.

“Es un retroceso en la seguridad y vigilancia del paciente”, dijo Sanket Dhruvaexperto en seguridad de dispositivos y cardiólogo del Universidad de California, San Francisco. “Nos dejará con un sistema regulatorio insuficiente para identificar dispositivos inseguros y realizar evaluaciones comparativas”.

Leer más aquí.