Cuando los atacantes ponen la IA y el ML en su contra

Detener el ransomware se ha convertido en una prioridad para muchas organizaciones. Por lo tanto, están recurriendo a la inteligencia artificial (IA) y al aprendizaje automático (ML) como sus defensas de elección. Sin embargo, los actores de amenazas también están recurriendo a AI y ML para lanzar sus ataques. Un tipo específico de ataque, el envenenamiento de datos, se aprovecha de esto.

Por qué la IA y el AA están en riesgo

Como cualquier otra tecnología, la IA es una moneda de dos caras. Los modelos de inteligencia artificial se destacan en el procesamiento de una gran cantidad de datos y en la “mejor suposición”, dice Garret Grajek, director ejecutivo de YouAttest, en una entrevista por correo electrónico.

“Los piratas informáticos han utilizado la inteligencia artificial para atacar la autenticación y la validación de identidad, incluidos los intentos de piratería de voz y visualización”, dice. “La ‘IA armada’ funciona para obtener la clave de acceso”.

“El envenenamiento de datos de adversarios es un ataque eficaz contra el aprendizaje automático y amenaza la integridad del modelo al introducir datos envenenados en el conjunto de datos de entrenamiento”, explican los investigadores de la Universidad de Cornell.


Recomendado: ¿Qué es el Big data?.


¿Qué hace que los ataques a través de IA y ML sean diferentes de los típicos ataques de “errores en el sistema”? Hay límites y debilidades inherentes en los algoritmos que no se pueden arreglar, dice Marcus Comiter en un artículo para el Centro Belfer de Ciencias y Asuntos Internacionales de la Universidad de Harvard.

“Los ataques de IA expanden fundamentalmente el conjunto de entidades que se pueden usar para ejecutar ciberataques”, agrega Comiter. “Por primera vez, los objetos físicos ahora se pueden usar para ataques cibernéticos. Los datos también se pueden convertir en armas de nuevas formas utilizando estos ataques, lo que requiere cambios en la forma en que se recopilan, almacenan y utilizan los datos “.

Error humano

Para comprender mejor cómo los actores de amenazas utilizan la inteligencia artificial y el aprendizaje automático como vector de ataque para el envenenamiento de datos y otros ataques, debemos tener una idea más clara del papel que desempeñan en la protección de datos y redes.

Pregúntele a un director de seguridad de la información cuál es la mayor amenaza para los datos de una organización, y la mayoría de las veces le dirán que es la naturaleza humana.

Los empleados no planean ser un riesgo cibernético, pero son humanos. La gente se distrae. Hoy pierden una amenaza que fácilmente habrían evitado ayer. Un empleado que se apresura a cumplir una fecha límite y espera un documento importante puede terminar haciendo clic en un archivo adjunto infectado, confundiéndolo con el que necesita. O los empleados simplemente pueden no estar al tanto, ya que su capacitación en concientización sobre seguridad es demasiado inconsistente para haber causado una buena impresión. Los actores de amenazas lo saben y, como cualquier buen delincuente, buscan encontrar la forma más fácil de acceder a una red y a los datos. Los ataques de phishing son tan comunes porque funcionan muy bien.

Uso del comportamiento atípico como factor de riesgo

Aquí es donde la detección de malware de IA y ML viene al rescate. Estas tecnologías encuentran patrones y analizan el comportamiento del usuario, detectando comportamientos extraños antes de que se conviertan en un problema. Al aplicar los algoritmos generados, ML reconoce comportamientos atípicos que un ser humano posiblemente no pueda. Puede, por ejemplo, detectar el día de trabajo normal de un empleado o el ritmo de sus pulsaciones de teclas y configurar alertas para algo fuera de lo común.

No es perfecto, por supuesto. Alguien podría estar trabajando fuera de su horario normal o tener una lesión que afecte la forma en que escribe. Pero estas herramientas están diseñadas para detectar algo fuera de lo común, como un actor de amenazas que usa credenciales robadas.

En el mejor de los casos, podemos usar la inteligencia artificial para proteger mejor las redes de los ataques de ransomware al diferenciar entre archivos reales y maliciosos en computadoras y redes no supervisadas, bloqueando el acceso a los archivos defectuosos. La IA podría detectar la TI en la sombra, distinguir las conexiones autorizadas de las amenazadoras y brindar información sobre la cantidad de puntos finales que utiliza la fuerza laboral.

Para que la inteligencia artificial y el aprendizaje automático tengan éxito en la lucha contra las amenazas cibernéticas, se basan en los datos y los algoritmos creados durante un período de tiempo específico. Eso es lo que les permite encontrar los problemas de manera eficiente (y libera al equipo de seguridad para otras tareas). Y también es la amenaza. El aumento de la inteligencia artificial y el aprendizaje automático está conduciendo directamente a la amenaza latente del envenenamiento de datos.

Comprensión del envenenamiento de datos

Hay dos formas de envenenar los datos. Una es inyectar información en el sistema para que devuelva clasificaciones incorrectas.

A nivel superficial, no parece tan difícil envenenar el algoritmo. Después de todo, AI y ML solo saben lo que la gente les enseña. Imagina que estás entrenando un algoritmo para identificar un caballo. Puede mostrarle cientos de imágenes de caballos marrones. Al mismo tiempo, le enseña a reconocer las vacas alimentándolo con cientos de imágenes de vacas en blanco y negro. Pero cuando una vaca marrón se desliza en el conjunto de datos, la máquina la etiquetará como un caballo. Para el algoritmo, un animal marrón es un caballo. Un humano podría reconocer la diferencia, pero la máquina no lo hará a menos que el algoritmo especifique que las vacas también pueden ser marrones.

Si los actores de amenazas acceden a los datos de entrenamiento, pueden manipular esa información para enseñar a AI y ML lo que quieran. Pueden hacerles ver un buen código de software como código malicioso y viceversa. Los atacantes pueden reconstruir datos de comportamiento humano para lanzar ataques de ingeniería social o para determinar a quién dirigirse con ransomware.

La segunda forma en que los actores de amenazas podrían aprovechar los datos de capacitación para generar una puerta trasera.

“Los piratas informáticos pueden usar la inteligencia artificial para ayudar a elegir cuál es la vulnerabilidad más probable que valga la pena explotar. Por lo tanto, el malware se puede colocar en empresas donde el malware mismo decide el momento del ataque y cuál podría ser el mejor vector de ataque. Estos ataques, que son variables por diseño, hacen que su detección sea más difícil y prolongada “. dice Grajek.

Cómo utilizan los atacantes el envenenamiento de datos

Una cosa importante a tener en cuenta con el envenenamiento de datos es que el actor de la amenaza debe tener acceso al programa de capacitación de datos. Por lo tanto, puede estar lidiando con un ataque interno, un rival comercial o un ataque de un estado-nación.

El Departamento de Defensa, por ejemplo, está estudiando la mejor manera de defender sus redes y datos de un ataque de envenenamiento de datos.

“La investigación actual sobre IA adversaria se centra en enfoques en los que perturbaciones imperceptibles de las entradas de ML podrían engañar a un clasificador de ML, alterando su respuesta”, escribió el Dr. Bruce Draper sobre un proyecto de investigación de DARPA, Garantizando la robustez de la IA contra el engaño. “Aunque el campo de la IA adversaria es relativamente joven, ya se han propuesto decenas de ataques y defensas, y en la actualidad falta una comprensión teórica completa de las vulnerabilidades de ML”.

Los atacantes también pueden usar el envenenamiento de datos para hacer que el malware sea más inteligente. Los actores de amenazas lo usan para comprometer el correo electrónico clonando frases para engañar al algoritmo. Ahora incluso se ha trasladado a la biometría, donde los atacantes pueden bloquear a los usuarios legítimos y colarse.

Envenenamiento de datos y deepfakes

Los deepfakes son un nivel de envenenamiento de datos que muchos esperan que sea la próxima gran ola de delitos digitales. Los atacantes editan videos, imágenes y grabaciones de voz para crear imágenes de apariencia realista. Debido a que muchos ojos pueden confundirlos con fotografías o videos reales, son una técnica madura para el chantaje o la vergüenza. Manejado a nivel corporativo, una variante de esto también puede conducir a peligros físicos, como señaló Comiter.

“[A]n Un ataque de IA puede transformar una señal de alto en una luz verde a los ojos de un automóvil autónomo simplemente colocando algunos trozos de cinta adhesiva en la propia señal de alto ”, escribió.

Las noticias falsas también se incluyen en el tema del envenenamiento de datos. Los algoritmos en las redes sociales están dañados para permitir que la información incorrecta aparezca en la parte superior de las noticias de una persona, reemplazando las fuentes de noticias auténticas.

Detener los ataques de envenenamiento de datos

El envenenamiento de datos aún está en su infancia, por lo que los expertos en defensa cibernética aún están aprendiendo cómo defenderse mejor contra esta amenaza. Las pruebas de seguridad pentesting y ofensivas pueden llevar a encontrar vulnerabilidades que brinden acceso a personas externas a los modelos de capacitación de datos. Algunos investigadores también están considerando una segunda capa de IA y ML diseñada para detectar posibles errores en el entrenamiento de datos. Y, por supuesto, irónicamente, necesitamos un humano para probar los algoritmos de IA y comprobar que una vaca es una vaca y no un caballo.

“La IA es solo un arma más en el arsenal del atacante”, dice Grajek. “Los piratas informáticos seguirán queriendo moverse por la empresa, escalar sus privilegios para realizar su tarea. El monitoreo constante y en tiempo real de la escalada de privilegios es crucial para ayudar a mitigar los ataques, causados ​​por IA o no “.