Saltar al contenido

clasificación del tráfico en una web cada vez más cifrada | octubre 2022

4 de octubre de 2022

Crédito: Getty Images

La clasificación del tráfico es esencial en la gestión de la red para una amplia gama de operaciones. Recientemente, se ha vuelto cada vez más desafiante con la adopción generalizada del cifrado en Internet, por ejemplo, como una de facto en los protocolos HTTP/2 y QUIC. En el estado actual de clasificación de tráfico encriptado mediante aprendizaje profundo (DL), identificamos problemas fundamentales en la forma en que normalmente se aborda. Por ejemplo, aunque se utilizan modelos DL complejos con millones de parámetros, estos modelos implementan una lógica relativamente simple basada en ciertos campos de encabezado del protocolo de enlace TLS, lo que limita la solidez del modelo para futuras versiones de protocolos cifrados. Además, el tráfico encriptado a menudo se trata como cualquier otra entrada sin procesar para DL, mientras que las consideraciones cruciales específicas del dominio generalmente se ignoran. En este artículo, diseñamos un nuevo enfoque de ingeniería de funciones utilizado para protocolos web cifrados y desarrollamos una arquitectura de red neuronal basada en capas de memoria a corto plazo apiladas y redes neuronales convolucionales. Evaluamos nuestro enfoque en un conjunto de datos de tráfico web del mundo real de un importante proveedor de servicios de Internet y operador de red móvil. Logramos una precisión del 95 % en la clasificación de servicios con menos tráfico sin procesar y una menor cantidad de parámetros, superando a un método de última generación en casi un 50 % menos de clasificaciones falsas. Mostramos que nuestro modelo DL se generaliza para diferentes objetivos de clasificación y protocolos web cifrados. También evaluamos nuestro enfoque en un conjunto de datos QUIC público con una granularidad de nivel de aplicación más fina en el etiquetado, logrando una precisión general del 99 %.

Recomendado:  Jardín del mal: El siniestro paraíso digital de Trevor Paglen te pone en la mira | Arte y diseño

Volver arriba

1. Introducción

La clasificación del tráfico es fundamental para que los operadores de red realicen una amplia gama de actividades de gestión y operación de la red. Esto incluye la planificación de la capacidad, la seguridad y la detección de intrusiones, la garantía de la calidad del servicio (QoS), la supervisión del rendimiento, la volumetría y el aprovisionamiento de recursos, por nombrar algunos. Por ejemplo, un administrador de red empresarial o un proveedor de servicios de Internet (ISP) puede querer priorizar el tráfico para los servicios críticos del negocio, identificar el tráfico desconocido para la detección de anomalías o realizar la caracterización de la carga de trabajo para diseñar esquemas de administración de recursos eficientes para satisfacer los requisitos de rendimiento y recursos de diversas aplicaciones. . Según el contexto, la clasificación errónea a gran escala puede dar lugar a la falta de entrega de garantías de QoS, altos gastos operativos, violaciones de seguridad o incluso interrupciones en los servicios.

La comunicación cifrada entre clientes y servidores ahora se ha convertido en la norma. La mayoría de los servicios destacados basados ​​en la web ahora se ejecutan sobre el protocolo seguro de transferencia de hipertexto (HTTPS). Por otro lado, para mejorar la seguridad y la calidad de la experiencia (QoE) para los usuarios finales, han surgido nuevos protocolos web (por ejemplo, HTTP/2 y QUIC), que superan varias limitaciones de HTTP/1.1. Utilizando un tráfico móvil del mundo real, estimamos que alrededor del 32 % de todas las sesiones HTTPS ya utilizan HTTP/2 como protocolo subyacente. Sin embargo, las características de HTTP/2, como el cifrado de carga útil, la multiplexación y la concurrencia, la priorización de recursos y la inserción del servidor, aumentan la complejidad de la clasificación del tráfico. Si bien una gran cantidad de literatura aprovecha el poder del aprendizaje automático (ML) para diferentes objetivos de clasificación de tráfico (por ejemplo, nivel de servicio y aplicación, predicción de QoE, seguridad), existen varias limitaciones que deben abordarse para su uso práctico.

Recomendado:  Los economistas encuentran que la adopción de robots por parte de las empresas se debe en parte a la escasez de mano de obra de mediana edad. -- Ciencia diaria

entradas no encontradas

Inicie sesión para leer el artículo completo

¿Necesita acceso?

Seleccione una de las opciones a continuación para acceder a funciones y contenido premium.

Crear una cuenta web

Si ya eres miembro de ACM, Comunicaciones suscriptor, o suscriptor de la Biblioteca Digital, configure una cuenta web para acceder al contenido premium en este sitio.


Únete a la ACM

Conviértase en miembro para aprovechar al máximo los extraordinarios recursos de información informática, las oportunidades de trabajo en red y otros beneficios de ACM.


Suscríbete a Comunicaciones de la Revista ACM

Obtenga acceso completo a más de 50 años de contenido del CACM y reciba la versión impresa de la revista mensualmente.


Compra el artículo

Los no miembros pueden comprar este artículo o una copia de la revista en la que aparece.