Saltar al contenido

Las extensiones de navegador con ChatGPT son el último filón malware: some son una gran amenaza

20 de junio de 2023

Desde que ChatGPT apareció en el mercado, muchos usuarios quisieron experimentar con este tipo de sistemas de inteligencia artificial generativa. Una de las formas más sencillas de hacerlo fue a través de extensiones de navegador, y aunque efectivamente eso daba opciones de todo tipo, ha resultado que dichas extensiones son, sobre todo, una cosa: una amenaza para la seguridad de nuestros equipos.

De todo, y mucho peligroso. Lo señalan los expertos de ciberseguridad de Kolide, que han realizado un estudio en el que dejan claro que en esa nueva oleada de extensiones IA hay muchas que directamente están pensadas para robarnos datos, algo que no es en absoluta una novedad. Otros se han desarrollado a toda velocidad y tienen términos de privacidad que son una copia-pega de cualquier otro servicio, y otros, eso es cierto, son experimentos IA de empresas conocidas y respetadas.

No usar datos sensibles o privados. El problema es que los usuarios de todo el mundo están instalando estas extensiones para «juguetear» con sus prestaciones, y al hacerlo suelen introducir a menudo datos sensibles que pueden acabar donde no deben. El riesgo es especialmente algo para usuarios profesionales que hacen uso de estas extensiones en sus puestos de trabajo.

Extensiones ladronas de datos. En marzo la empresa de protección de identidad digital Guardio avisó de uno de los primeros casos descubiertos. Una extensión de Chrome llamada «Quick access to Chat GPT» estaba robando las cuentas de Facebook de los usuarios y también una lista de todas las cookies almacenadas en el navegador, incluidas las relacionadas con los tokens de seguridad.

Recomendado:  La EEOC emite una guía para el uso de inteligencia artificial en la selección de empleos | polsinelli

Google no da abasto. Aunque la empresa tardó tan solo una semana en detectarla y eliminarla, el daño ya estaba hecho: 2.000 usuarios al día la habían descargado y usado. Pasó algo parecido con un montón de extensiones que prometían por ejemplo a ChatGPT desde el navegador. Algo parecido, por cierto, pasa en los móviles, donde los usuarios incluso pagan por usar este tipo de herramientas.

Varias amenazas de seguridad. Entre las amenazas no solo está ese robo de datos sensibles, sino que incluso las extensiones oficiales pueden tener problemas de seguridad —OpenAI detectó un fallo en su propia plataforma—. También está el problema con los derechos de autor: los textos, código o imágenes pueden acabar siendo reproducciones parciales de obras con copyright, lo que plantea problemas legales importantes. Los moderadores de Stack Overflow se declararon en huelga por cómo el sitio estaba viéndose inundado por código generado por IA.

Inyección inmediata para el mal. El funcionamiento de ChatGPT ha detonado otro tipo de ciberataques llamados ‘prompt injection’. La idea es simple: tratar de lograr que con un prompt específico el modelo de IA haga cosas que no deben. Así es como Microsoft Edge terminó confesándonos sus «leyes de la robótica», pero los ataques que pueden plantearse con este método pueden ir mucho más allá y ser más peligrosos. Un desarrollador llamado Simon Willison indicaba en mayonesa cómo la combinación de complementos de ChatGPT Plus podría acabar sirviendo para extraer datos privados.

Cómo evitarlo. El funcionamiento actual de los LLM hace que sean vulnerables a este tipo de ataques, y no parece haber solución en el horizonte según los expertos de Kolide. De hecho, explican, la única forma de exponernos es precisamente la de no ponérselo fácil a esas extensiones (o al propio ChatGPT): no hay que introducir datos privados en estas plataformas, y tampoco conectarlas a fuentes de datos privados. No es buena idea por ejemplo darle datos a ChatGPT sobre nuestras finanzas para que nos dé algún tipo de consejo financiero, ni tampoco preguntarle por algún tipo de diagnóstico médico preliminar convertir como referencia síntomas o datos clínicos privados y reales.

Recomendado:  GPT-4 de OpenAI ayudó al CEO de Microsoft, Satya Nadella, a vivir un sueño de la infancia

¿Y qué deben hacer las empresas? Algunos ya tienen muy claro que ChatGPT no sabe guardar secretos y eso incluye aquellos con información confidencial, así que están prohibiendo directamente el acceso a ChatGPT a sus empleados o limitándolo de forma importante. El consejo para todas ellas es que como mínimo eduquen y formen a sus empleados en el uso de estas extensiones (y los riesgos que existen al hacerlo) y que pongan en marcha «listas blancas» de extensiones verificadas y que pueden usar.

Imagen | Xataka con Midjourney

En Xataka | Apple y el peligro de perder el tren de la inteligencia artificial