Verta Inc., un proveedor líder de gestión de modelos empresariales y soluciones de inteligencia artificial (IA) operativa, publicó los resultados de la 2022 Estado de las operaciones de aprendizaje automático estudio, que encuestó a más de 200 profesionales de aprendizaje automático (ML) sobre su uso de modelos de IA y ML para impulsar el éxito comercial. El estudio fue realizado por Verta Insights, la práctica de investigación de Verta Inc., y descubrió que, aunque las empresas de todos los sectores están preparadas para aumentar significativamente el uso de la IA en tiempo real en los próximos tres años, menos de la mitad ha adoptado las herramientas necesarias. para gestionar la expansión prevista.
De hecho, el 45 % de los encuestados informaron que su empresa informó tener un equipo de plataforma de datos o AI/ML para respaldar la puesta en producción de los modelos, y solo el 46 % tiene una plataforma MLOps para facilitar la colaboración entre las partes interesadas en el ML. ciclo de vida, lo que sugiere que la mayoría de las empresas no están preparadas para manejar el aumento previsto en los casos de uso en tiempo real.
La encuesta también reveló que poco más de la mitad (54 %) de los modelos de aprendizaje automático aplicados que se implementan en la actualidad permiten casos de uso o aplicaciones en tiempo real o de baja latencia, frente al 46 % que habilita aplicaciones por lotes o analíticas. Sin embargo, los casos de uso en tiempo real están preparados para un fuerte aumento, según el estudio. Más de dos tercios (69 %) de los participantes informaron que los casos de uso en tiempo real aumentarían en los próximos tres años, incluido el 25 % que cree que habrá un “aumento significativo” en tiempo real durante el mismo período.
“Lanzamos Verta Insights para comprender mejor los desafíos críticos y los problemas emergentes que enfrentan las organizaciones cuando buscan obtener valor de las iniciativas comerciales impulsadas por IA”, dijo Rory King, director de marketing e investigación de Verta. “Como habíamos planteado, nuestro estudio de MLOps identificó capacidades como la adopción de la plataforma de MLOps y la formalización de los equipos de la plataforma de ML y los comités de gobierno que los principales actores utilizan más fácilmente para su beneficio”.
Cuando se les pidió que informaran con qué frecuencia sus organizaciones cumplieron con los objetivos financieros y su tasa de éxito en el envío de funciones habilitadas para IA a aplicaciones inteligentes, los líderes tenían más del doble de probabilidades de enviar productos o funciones de IA y tres veces más de probabilidades de cumplir con los acuerdos de nivel de servicio requeridos. (SLA) que sus pares.
“Cada dispositivo inteligente tiene inteligencia incorporada, y los consumidores solo esperan que sus interacciones con las empresas se realicen en línea, en tiempo real. Con el tiempo, hemos visto cómo las normas de los consumidores dieron como resultado mayores expectativas de interacciones entre empresas inteligentes y basadas digitalmente”, dijo Manasi Vartak, director ejecutivo y fundador de Verta. “A medida que la adopción de la IA aumenta drásticamente, las organizaciones deberán aumentar su pila de tecnología para incluir una infraestructura operativa de IA si tienen la intención de lograr beneficios de primera línea a través de equipos, sistemas, productos y servicios inteligentes”.
Vartak explicó que la mayoría de las organizaciones han pasado años invirtiendo en aspectos fundamentales del aprendizaje automático, como contratar talento en ciencia de datos para construir y entrenar modelos, y adquirir las pilas de tecnología asociadas para respaldarlos. Esto está empezando a cambiar.
“El término ‘MLOps’ se usa a menudo para describir el ciclo de vida de un modelo desde la construcción inicial hasta su uso previsto, pero en realidad, muy pocas organizaciones y sus tecnologías habilitadoras están diseñadas para realizar aspectos operativos reales del aprendizaje automático”, dijo Vartak. “En cambio, la mayoría de las empresas han centrado sus esfuerzos en establecer una base sólida para dominar las cargas de trabajo analíticas por lotes que no son adecuadas para ejecutar aplicaciones críticas en tiempo real”.
Las pilas de tecnología para operacionalizar ML para admitir aplicaciones en tiempo real difieren de las que se usan para construir y entrenar modelos, señaló Vartak. Los primeros dependen en gran medida de la potencia informática masiva, como aprovechar las unidades de proceso de gráficos (GPU) combinadas con motores de análisis especializados para el procesamiento de datos a gran escala. Por el contrario, el aprendizaje automático operativo debe tratarse como un software ágil que debe pasar por un increíble rigor de prueba, estar sujeto a estrictas medidas de seguridad, operar con alta confiabilidad y hacer predicciones con tiempos de respuesta increíblemente rápidos medidos en submilisegundos.
“La demanda de más equipos de plataforma ML indica un cambio en el mercado, ya que subraya la necesidad de habilidades y tecnología únicas para lograr una IA operativa”, dijo Vartak. “Darse cuenta del valor que aportan estos equipos garantizará que a las empresas les vaya mucho mejor en la entrega de una capacidad de respuesta en tiempo real a sus clientes, adhiriéndose a los principios de IA responsable y cumpliendo con la próxima ola de regulaciones de IA”.
Regístrese para recibir el boletín gratuito insideBIGDATA.
Únase a nosotros en Twitter: https://twitter.com/InsideBigData1
Únase a nosotros en LinkedIn: https://www.linkedin.com/company/insidebigdata/
Únase a nosotros en Facebook: https://www.facebook.com/insideBIGDATANOW