Una tarea desafiante incluso para los desarrolladores de software más experimentados, la creación de aplicaciones que integran tecnologías avanzadas como inteligencia artificial y aprendizaje automático requiere el uso de modelos y plantillas preexistentes que pueden acelerar el proceso de llegar a una solución utilizable.
La inteligencia artificial (IA) se encuentra en el corazón del software de aprendizaje profundo de Deci. La empresa con sede en Tel Aviv presentó esta semana un nuevo conjunto de modelos de categorización de imágenes, denominados DeciNets, en particular para servidores que ejecutan unidades de procesamiento central Intel Cascade Lake (CPU).
Contrariamente a la creencia popular, las CPU, que se utilizan con mucha más frecuencia para la informática general, son una opción mucho más rentable para operar redes neuronales convolucionales de uso intensivo de energía que las unidades de procesamiento de gráficos. Los modelos de aprendizaje profundo a menudo se ejecutan de tres a diez veces más lento en una CPU que en una GPU.
La brecha de rendimiento de la CPU se está cerrando
Deci, una empresa emergente de tres años, ofrece una manera de cerrar la brecha de velocidad entre el rendimiento de la GPU y la CPU para las redes neuronales convolucionales. Los nuevos DeciNets generados por su tecnología AutoNAC (Automatic Neural Architecture Construction) mejoran en gran medida todos los modelos públicos y brindan más del doble de tiempo de ejecución que la generación anterior. Además, la empresa afirma que sus modelos son más precisos que los modelos de acceso público más poderosos de EfficientNets, que fue creado por Google.
Según el cofundador y director ejecutivo de Deci, Yonatan Geifman, en un comunicado de prensa, las operaciones que antes no se podían realizar en una CPU debido a sus requisitos de recursos ahora son factibles.
Estas cargas de trabajo experimentarán un aumento significativo en el rendimiento gracias a DeciNets; la diferencia entre la velocidad de inferencia de un modelo en una GPU y la CPU se reduce a la mitad, pero la precisión del modelo no se sacrifica”, agregó Geifman.
Deci es un profesional de aprendizaje profundo que tiene como objetivo identificar no solo los modelos más correctos, sino también los modelos más eficientes en recursos que se pueden usar en la producción.
Geifman llamó a esta combinación de eficiencia y precisión el «santo grial» del aprendizaje profundo. Ahora es posible ejecutar aplicaciones de IA en CPU utilizando la nueva clase de DeciNets, gracias a AutoNAC, que construye los mejores modelos de visión artificial hasta la fecha.
En marzo de 2021 se anunció una asociación estratégica entre Deci e Intel para mejorar la inferencia de aprendizaje profundo en CPU con arquitectura Intel. Deci e Intel trabajaron juntos anteriormente en MLPerf, donde la tecnología AutoNAC de Deci aceleró la velocidad de inferencia de la conocida red neuronal ResNet50, reduciendo la la latencia de los modelos presentados por un factor de hasta 11,8 veces y aumentando el rendimiento hasta 11 veces, según el comunicado de prensa de la compañía. En OctoML, una empresa que también afirma automatizar la optimización del aprendizaje automático mediante herramientas y procedimientos patentados, Deci tiene un oponente clave. DeepCube, Neural Magic y DarwinAI, que emplea «síntesis generativa» para asimilar modelos y producir versiones más optimizadas, también están en el mercado.
Friki sutilmente encantador de la cultura pop. Analista aficionado. Aficionado a la televisión freelance. Amante del café