Los científicos de datos deberían considerar seriamente el uso de CPU para el aprendizaje automático, según Deci, especialista en IA con sede en Israel. El año pasado, anunció el desarrollo de un nuevo conjunto de modelos de clasificación de imágenes que, según dice, ofrece más del doble de rendimiento en tiempo de ejecución que los modelos más potentes disponibles públicamente, como EfficientNets de Google.
Para ser claros, los modelos de aprendizaje profundo funcionan mucho más lento en una CPU que en una GPU. Esta es la razón por la que las GPU se utilizan tradicionalmente como el hardware elegido para el procesamiento de ML, mientras que las CPU se utilizan para tareas informáticas genéricas.
Pero al cerrar la brecha entre la CPU y la GPU para las redes neuronales convolucionales (CNN), Deci argumenta que reduce la barrera para incorporar tareas de aprendizaje profundo, libera valiosos recursos de la GPU para otros tipos de aplicaciones de IA y democratiza aún más el uso de la IA.
Por supuesto, el anuncio anterior se hizo hace un año. ¿Por qué deberían molestarse los científicos de datos dada la disminución del suministro de GPU dado el deshielo actual de las criptomonedas?
CPU para una mayor accesibilidad
En respuesta a una consulta de CDOTendenciasYonatan Geifman, director ejecutivo y cofundador de Deci, señaló que las CPU todavía están mucho más disponibles a escala para los requisitos de procesamiento y «tienden a ser, en general, más eficientes en términos de energía».
“En lo que respecta a las cargas de trabajo de IA, estamos viendo que las CPU de nueva generación se están poniendo al día con las GPU. Mire la cuarta generación de Sapphire Rapids de Intel, por ejemplo: al optimizar los modelos de IA que se ejecutan en el nuevo hardware de Intel, podemos permitir que los desarrolladores de IA logren un rendimiento de inferencia similar al de la GPU en las CPU en producción tanto para Computer Vision como para Procesamiento de lenguaje natural (NLP) tareas”, dijo Geifman.
Geifman dice que el motor AutoNAC de su empresa permitirá a los equipos de IA diseñar fácilmente modelos de aprendizaje profundo que tengan en cuenta el hardware y que puedan ofrecer una inferencia potente y eficiente, incluso en CPU de generaciones anteriores.
“Con estos modelos, ahora se pueden realizar tareas que antes no podían llevarse a cabo en una CPU porque requerían demasiados recursos. Además, estas tareas verán una marcada mejora en el rendimiento: al rediseñar mejores modelos, la brecha entre el rendimiento de inferencia de un modelo en GPU y las CPU de generaciones anteriores se reduce a la mitad, sin sacrificar la precisión del modelo”, dijo.
Finalmente, Geifman dice que la capacidad de ejecutar modelos de IA en CPU podría permitir que las aplicaciones de IA se implementen en muchos más lugares sin la necesidad de actualizaciones de costos prohibitivos. En pocas palabras, puede democratizar la IA y ponerla al alcance de aún más organizaciones.
“El aumento de la CPU permitiría a las empresas emergentes con acceso limitado al capital financiero [to] ser capaz de cosechar los beneficios de la inferencia de Deep Learning sin el riesgo de gastar de más. Los casos de uso práctico para esto son infinitos: hospitales y centros médicos, por ejemplo, que deseen integrar la IA en procedimientos comunes como las radiografías, podrían hacerlo sin dejar de ser fiscalmente responsables”.
Paul Mah es el editor de DSAITrends. Ex administrador de sistemas, programador y profesor de TI, disfruta escribiendo código y prosa. Puedes localizarlo en [email protected].
Crédito de la imagen: iStockphoto/master1305