Saltar al contenido

MLOps: llevar la inteligencia artificial a la vanguardia táctica y hacer que funcione

27 de julio de 2021

El aprendizaje automático (ML), la capacidad de las máquinas para percibir datos, aprender de ellos, abstraerlos y actuar sobre ellos, ha sido un catalizador para la innovación y el avance en todos los sectores, y la seguridad nacional no es una excepción. Solo en el último año, ha habido varios ejemplos excelentes de la enorme oportunidad que ofrece ML con respecto a la inteligencia artificial (IA) para la defensa y la comunidad de inteligencia. El Departamento de Defensa de EE. UU. (DoD) continúa sus esfuerzos para escalar la IA y celebra nuevos logros, como usar la IA para ayudar a controlar un avión de reconocimiento U-2 «Dragon Lady», la primera vez que la IA se pone al mando de un sistema militar de EE. UU. .

Las posibilidades de avance son infinitas: al ayudar con las tareas relacionadas con la recopilación, el procesamiento y el análisis de datos, ML puede detectar infracciones cibernéticas y piratas informáticos antes que los humanos, acelerar las respuestas a los ataques de guerra electrónica y apuntar más de cerca a las respuestas al fuego cinético a través de su capacidades de actualización y aprendizaje continuas. Los guerreros también pueden usar ML para buscar dominios y recursos, desde barcos hasta artillería, para hacer coincidir objetivos con recursos.

A medida que nos instalamos en 2021, hay un aspecto de AI / ML que no debe pasarse por alto: cómo ponerlo efectivamente en manos de los combatientes en la vanguardia táctica, donde las decisiones rápidas son primordiales y la potencia de cómputo y la conectividad a menudo son escasas. Es fundamental que estos casos de uso de vanguardia caractericen y den forma a la planificación de la inversión impulsada por la inteligencia artificial y el aprendizaje automático a medida que la digitalización continúa acelerando el ritmo de la guerra.

Restricciones y desafíos actuales de AI / ML

Hoy en día, muchas innovaciones de IA / ML implican «algoritmos boutique» que operan en la nube con el objetivo de convertirlos en los mejores y más grandes. La implementación en una nube comercial significa recursos ilimitados para el entrenamiento de bases de datos, con computación de alta potencia y gran ancho de banda. Los algoritmos se entrenan y operan en silos con todos los recursos, no en el campo, con muchas medidas para protegerlos de influencias externas como la suplantación de identidad y las interferencias.

Recomendado:  Transformación a un enfoque de almacenamiento de datos a escala

En resumen, es genial si un modelo ofrece resultados sorprendentes «en el laboratorio», pero este mismo algoritmo es inútil si no es operativo y adaptable cuando y donde los combatientes más lo necesitan. La implementación de AI / ML en el borde requiere una inversión estratégica en cuatro áreas clave:

  • Capacidad de cómputo y almacenamiento. Los modelos que se ejecutan en una nube comercial pueden acceder a datos que consumen terabytes de memoria. Mientras tanto, el equipo de campo de combate puede acomodar muchos menos datos que los de cualquier algoritmo en particular, típicamente en el rango de 10s de gigabytes.
  • Consumo de energía y ancho de banda. Para funcionar correctamente, el algoritmo debe funcionar de una manera que no agote la batería del dispositivo. Esto requerirá que los ingenieros de aprendizaje automático inviertan tiempo en garantizar que la información se almacene en caché cuando el dispositivo se desconecta y retoma donde se detuvo cuando regrese a la red.
  • Despliegue masivo. Las capacidades de IA deben ser escalables, capaces de llegar a 3.000-5.000 soldados en una brigada de infantería. Actualmente, muchos algoritmos se implementan a través de un solo servidor, por lo que esto requerirá una planificación más avanzada.
  • Mantenimiento de datos más eficiente y confiable. Por diseño, los algoritmos de IA / ML están aprendiendo y mejorando continuamente. Sin embargo, cuando los algoritmos están en silos, el entrenamiento no se comparte entre todos, lo que significa que un algoritmo puede derivar y degradarse fácilmente, poniendo en peligro tanto el rendimiento como la confianza en el sistema.

MLOps estandariza, escala y operacionaliza algoritmos

Otra área clave de inversión para superar estos desafíos es priorizar la capacitación y el desarrollo específicos de las operaciones de aprendizaje automático (MLOps), que es un conjunto de prácticas que permite la colaboración estandarizada entre los científicos de datos y las operaciones de campo, lo que permite a las organizaciones administrar el ciclo de vida. no solo de la ingeniería de ML, sino también de la implementación. Esto incluye el seguimiento y monitoreo del desempeño para identificar y corregir errores e implementar la seguridad en cada fase.

Recomendado:  Backprop Bonanza - insideBIGDATA

MLOps rompe ML fuera de los silos de algoritmos boutique, convirtiendo el «ML analista» en capacidades de inteligencia operativa que funcionan en el borde táctico.

Específicamente, MLOps proporciona los siguientes beneficios operativos:

  • Mayor frecuencia de implementación del modelo de AA: Desacopla el entrenamiento del modelo ML y las canalizaciones de creación de aplicaciones de software, lo que permite que los modelos ML se implementen de forma independiente en las frecuencias necesarias para mantener el rendimiento en los dispositivos soldados.
  • Implementación mejorada del modelo de AA en entornos desafiantes: Proporciona a los ingenieros de aprendizaje automático canalizaciones de aprendizaje automático predefinidas diseñadas para optimizar los modelos de aprendizaje automático para su implementación en redes de borde tácticas o celulares.
  • Prueba y evaluación de ML a nivel del sistema: Proporciona las capacidades necesarias para medir cuantitativamente, y automáticamente en muchos casos, tanto el modelo de aprendizaje automático como el rendimiento del sistema utilizando criterios de aprendizaje profundo como el marco PLASTER de NVIDIA (programabilidad, latencia, precisión, tamaño del modelo, rendimiento, eficiencia energética y reproducibilidad). Esto también proporciona un marco para evaluar el cumplimiento del modelo ML con los principios éticos de IA del Departamento de Defensa.

Si una organización que trabaja para desarrollar ML para defensa e inteligencia se alinea con estos principios, será más fácil mitigar los desafíos a medida que ocurren. La construcción de una arquitectura abierta también es particularmente importante. Con un sistema abierto, las organizaciones de defensa se benefician de un circuito de retroalimentación abierto a medida que los datos se devuelven a entornos con mayores recursos informáticos. Además, un sistema abierto brinda la capacidad de intercambiar modelos existentes por otros más nuevos y mejores de fuentes del sector público y privado. Al hacer esto, los ingenieros no necesitan cambiar el sistema subyacente para adaptarse a diferentes tipos de modelos. MLOps pone un sistema en la parte superior de los algoritmos para hacer escalable una solución de ML y le proporciona la cadena de suministro para que funcione.

Recomendado:  El ingrediente secreto para una carrera exitosa con Vijay Rajagopal – Crayon Data

AI, particularmente ML, es una solución poderosa para ayudar a los combatientes de Estados Unidos a responder cuando cada milisegundo cuenta. Al realizar inversiones estratégicas en áreas específicas de mantenimiento de datos y capacidad de almacenamiento, ML será más flexible, repetible y actualizable. MLOps ayuda a las organizaciones de defensa a obtener capacidades valiosas en el campo, por lo que la inversión es necesaria para que los combatientes utilicen, se beneficien y, en última instancia, generen confianza en esta tecnología.

Sobre los autores

Joel Dillon es vicepresidente y líder técnico de Booz Allen en la cartera del ejército de la empresa, y lidera la práctica de Digital Warrior Solutions. Anteriormente, Joel trabajó en Amazon Web Services (AWS) después de servir en el Ejército de los EE. UU. Durante más de 20 años como oficial de infantería y adquisiciones, incluso en la Oficina Ejecutiva del Programa del Ejército como soldado.

Eric Syphard es director del Grupo de Innovación Estratégica (SIG) de Booz Allen y lidera el apoyo de la firma al Grupo de Trabajo de Investigación y Desarrollo de Servicios de Ingeniería de Transformación Digital de Inteligencia del Ejército (AIDTES) patrocinado por el gobierno. Antes de unirse a Booz Allen, Eric fue bioestadístico en la Universidad Johns Hopkins, donde implementó algoritmos estadísticos y tecnologías analíticas para automatizar las operaciones de investigación del cáncer.

Suscríbase al boletín gratuito insideBIGDATA.

Únase a nosotros en Twitter: @ InsideBigData1 – https://twitter.com/InsideBigData1