Los malos actores utilizan máquinas que aprenden a romper contraseñas más rápidamente y crean malware que sabe cómo esconderse, advierten los expertos.
Tres expertos en seguridad cibernética explicaron cómo la inteligencia artificial y el aprendizaje automático pueden utilizarse para evadir las defensas de la seguridad cibernética y hacer que las brechas sean más rápidas y eficientes durante una cumbre de seguridad cibernética de la NCSA y el Nasdaq.
Kevin Coleman, el director ejecutivo de la Alianza Nacional de Seguridad Cibernética, fue el anfitrión de la conversación como parte de la Seguridad Utilizable: Efectuando y midiendo el cambio en el comportamiento humano, el martes 6 de octubre.
Elham Tabassi, jefe de personal del laboratorio de tecnología de la información del Instituto Nacional de Normalización y Tecnología, fue uno de los panelistas en la mesa redonda sobre «Inteligencia artificial y aprendizaje automático para la seguridad cibernética»: Lo bueno, lo malo y lo feo».text
VER: Ingeniería social: Una hoja de truco para los profesionales de los negocios (PDF gratuito) (República Técnica)
«Los atacantes pueden usar la IA para evadir las detecciones, para esconderse donde no pueden ser encontrados, y adaptarse automáticamente a las medidas de respuesta», dijo Tabassi.
Tim Bandos, jefe de seguridad de la información en Digital Guardian, dijo que la ciberseguridad siempre necesitará de las mentes humanas para construir defensas fuertes y detener los ataques.
«AI es el compañero y los analistas de seguridad y los cazadores de amenazas son los superhéroes», dijo.
Aquí hay tres formas en que la IA y el ML pueden ser usados en ataques de ciberseguridad.
Envenenamiento de datos
Tabassi dijo que los malos actores a veces apuntan a los datos utilizados para entrenar modelos de aprendizaje de máquinas. El envenenamiento de datos está diseñado para manipular un conjunto de datos de entrenamiento para controlar el comportamiento de predicción de un modelo entrenado para engañar al modelo para que actúe de manera incorrecta, como por ejemplo etiquetar los correos spam como contenido seguro.
Hay dos tipos de envenenamiento de datos: Ataques que apuntan a la disponibilidad de un algoritmo de ML y ataques que apuntan a su integridad. La investigación sugiere que un envenenamiento del 3% de los datos de entrenamiento lleva a una disminución del 11% en la precisión.
Con los ataques de puerta trasera, un intruso puede añadir una entrada a un algoritmo que el diseñador del modelo no conoce. El atacante usa esa puerta trasera para hacer que el sistema ML clasifique erróneamente una cierta cadena como benigna cuando podría estar transportando datos erróneos.
Tabassi dijo que las técnicas de datos de envenenamiento pueden ser transferidas de un modelo a otro.
«Los datos son la sangre y el combustible para el aprendizaje de las máquinas y se debe prestar tanta atención a los datos que estamos usando para entrenar a los modelos como a los modelos», dijo. «La confianza del usuario está influenciada por el modelo y la calidad de la formación y los datos que se utilizan.»
Tabassi dijo que la industria necesita normas y directrices para garantizar la calidad de los datos y que el NIST está trabajando en la elaboración de directrices nacionales para una IA digna de confianza, que incluyan tanto directrices de alto nivel como requisitos técnicos para abordar la precisión, la seguridad, la parcialidad, la privacidad y la explicabilidad.
Redes Generativas Adversariales
Las Redes Generativas Adversas (RGA) son básicamente dos sistemas de IA enfrentados entre sí, uno que simula el contenido original y otro que detecta sus errores. Al competir entre sí, crean conjuntamente un contenido lo suficientemente convincente como para pasar por el original.
Los investigadores de Nvidia entrenaron un modelo único de IA para recrear el PAC-MAN simplemente observando horas de juego, sin un motor de juego, como explicó Stephanie Condon en ZDNet.
Bandos dijo que los atacantes están usando GAN para imitar los patrones de tráfico normales, para desviar la atención de los ataques, y para encontrar y exfiltrar datos sensibles rápidamente.
«Están entrando y saliendo en 30-40 minutos gracias a estas capacidades», dijo. «Una vez que los atacantes empiezan a aprovechar la inteligencia artificial y el aprendizaje de la máquina, pueden automatizar estas tareas.»
Las GAN también pueden utilizarse para descifrar contraseñas, evadir la detección de malware y engañar al reconocimiento facial, como describió Thomas Klimek en el documento «Generative Adversarial Networks»: Qué son y por qué debemos tener miedo». Un sistema PassGAN construido por investigadores de aprendizaje automático fue entrenado en una lista de contraseñas estándar de la industria y finalmente fue capaz de adivinar más contraseñas que varias otras herramientas entrenadas en el mismo conjunto de datos. Además de generar datos, los GAN pueden crear malware que puede evadir los sistemas de detección basados en el aprendizaje automático.
Bandos dijo que los algoritmos de IA utilizados en la ciberseguridad tienen que ser reentrenados frecuentemente para reconocer nuevos métodos de ataque.
«A medida que los adversarios evolucionan, nosotros tenemos que evolucionar también», dijo.
Usó la ofuscación como ejemplo, como cuando una pieza de malware se construye mayormente con código legítimo. Un algoritmo de ML tendría que ser capaz de identificar el código malicioso que contiene.
Manipulación de bots
El panelista Greg Foss, estratega senior de ciberseguridad de VMware Carbon Black, dijo que si los algoritmos de IA están tomando decisiones, pueden ser manipulados para tomar la decisión equivocada.
«Si los atacantes entienden estos modelos, pueden abusar de ellos», dijo.
Foss describió un reciente ataque a un sistema de comercio de criptodivisas dirigido por robots.
«Los atacantes entraron y averiguaron cómo los bots hacían sus transacciones y usaron los bots para engañar al algoritmo», dijo. «Esto puede aplicarse a otras implementaciones».
Foss añadió que esta técnica no es nueva, pero ahora estos algoritmos están tomando decisiones más inteligentes, lo que aumenta el riesgo de tomar una mala decisión.