Saltar al contenido

Red Hat acumula software para contener IA en plataformas Nvidia

23 de marzo de 2022

Nvidia y VMware han forjado una estrecha asociación cuando se trata de llevar la IA a la empresa, lo cual es lógico dada la prevalencia del hipervisor ESXi de VMware y las herramientas de administración de vSphere en más de 300 000 empresas en todo el mundo. Pero hay otro proveedor importante de virtualización de servidores y plataformas de contenedores: Red Hat.

Si usted es un gigante de la industria tecnológica que quiere destacar más lo que sus tecnologías pueden hacer para las empresas que desean ejecutar cargas de trabajo de IA, puede hacer algo peor que hacer esas declaraciones en la Conferencia de tecnología de GPU bianual de Nvidia. Y eso es lo que está haciendo Red Hat esta semana, destacando integraciones más estrechas entre su plataforma OpenShift Kubernetes y AI Enterprise 2.0 de Nvidia, el paquete de software presentado el año pasado como una forma de hacer que las capacidades de IA estén disponibles para una gama más amplia de empresas, y presentando la última versión de OpenShift. Abrir las tecnologías de inteligencia artificial y aprendizaje automático a más empresas y no solo a laboratorios de investigación, instituciones educativas y las organizaciones más grandes ha sido un esfuerzo continuo de muchos en TI durante los últimos años.

Red Hat se encuentra entre esos proveedores.

“Ha habido mucha adopción, pero cuando hablamos de adopción, si piensa en estos primeros usuarios, estos son los innovadores”, dice Tushar Katarki, director de gestión de productos para OpenShift Core Platform en Red Hat. La próxima plataforma. “El trabajo ahora es tratar de que la tecnología se generalice. La gente ve las ventajas de ello. A medida que tratamos de llegar a la corriente principal, uno de los mayores desafíos que enfrentará cualquier empresa típica en lo que respecta al software. Tiene que escalar, tiene que ser seguro, tiene que ser compatible. Luego tienen que integrarlo en los procesos existentes. Luego está la IA y el aprendizaje automático en sí mismo, que en cierto modo es único en el sentido de que requiere una gran cantidad de cómputo. Hay científicos de datos que quieren servicios que sean fáciles de usar”.

Recomendado:  Algunos modelos de riesgo predicen las hemorragias gastrointestinales mejor que otros
Tushar Katarki, director de gestión de productos de OpenShift Core Platform en Red Hat

Red Hat apunta a las cifras de Gartner que muestran que los ingresos mundiales por software de IA este año alcanzarán los 62 500 millones de dólares, un aumento interanual del 21,3 %, y que las empresas desean cada vez más integrar las capacidades de aprendizaje automático y de IA en sus aplicaciones nativas de la nube. OpenShift es el tipo de plataforma escalable y flexible que se necesita para implementar estas aplicaciones rápidamente, dice la compañía.

La combinación más estrecha de OpenShift con el trabajo que Nvidia ha realizado a lo largo de los años, no solo con sus GPU, sino también a través de su plataforma de software CUDA, bibliotecas de software RAPIDS, ofertas de hardware como el sistema optimizado para IA DGX A100 y AI Enterprise 2.0, permite que esto escala. AI Enterprise ya es compatible con la oferta Tanzu Kubernetes de VMware.

“Una vez que haya entrenado su modelo, una vez que haya jugado con sus datos, entrenado su modelo, su ajuste de hiperparámetros, lo que sea, ahora quiere expresarlo”, dice Katarki. “Desea que esté disponible como una herramienta para los desarrolladores para que puedan incorporarlo en sus aplicaciones. ¿Cuál es la forma nativa de la nube de hacerlo? Básicamente, es para convertirlo en una aplicación nativa de la nube con la API REST. Todo esto se ejecuta sobre OpenShift con Nvidia Enterprise AI. … Eso está certificado, eso está probado y eso es un apoyo conjunto para los clientes”.

OpenShift está certificado y es compatible con AI Enterprise 2.0, con el paquete de software optimizado para la plataforma Kubernetes. Tener OpenShift ahora compatible con el servidor DGX A100 permite a las organizaciones consolidar sus operaciones de aprendizaje automático (ingeniería de datos, análisis, capacitación, desarrollo de software e inferencia) en una sola pieza de hardware.

Recomendado:  Búsqueda local iterada desde cero en Python

Todo esto se suma al trabajo que los dos proveedores ya han realizado juntos, incluida la habilitación de las GPU Nvidia para admitir el clúster OpenShift Science de Red Hat y la extensión planificada del servicio en la nube del centro de datos OpenShift para incluir AI Enterprise de Nvidia.

“Esto permite escalar la IA y el aprendizaje automático”, dice Katarki. “OpenShift en sí es una plataforma en la nube, es una plataforma DevOps, es una plataforma de contenedores, según el nivel de abstracción en el que se encuentre. Está administrando lo mejor de la ciencia de datos y lo mejor de la nube, y DevOps y el desarrollo a nivel de la nube, y lo está brindando a nuestros clientes”.

Al mismo tiempo, Red Hat está agregando más funciones a la última versión de OpenShift, la versión 4.10, diseñada para facilitar la ejecución de cargas de trabajo de inteligencia artificial y aprendizaje automático, incluso en entornos de nube híbrida. Esos también incluyen dos pasos adicionales con Nvidia. El primero es hacer que OpenShift esté disponible en el LaunchPad de Nvidia, una plataforma de infraestructura de IA privada presentada el verano pasado y ampliada en noviembre que brinda a las organizaciones acceso a corto plazo a las herramientas de IA de Nvidia. Esencialmente, ofrece las GPU de Nvidia y AI Enterprise en sistemas OEM como servicio. Con OpenShift integrado, ahora pueden aprovechar la plataforma Kubernetes.

Para las nubes híbridas, OpenShift ahora puede ejecutarse en procesadores Arm, tanto en Amazon Web Services (AWS) a través de una infraestructura aprovisionada por el instalador (IPI) de automatización de pila completa como una infraestructura aprovisionada por el usuario (UPI) para entornos sin sistema operativo en la infraestructura existente. OpenShift on Arm es una buena historia de precio-rendimiento, pero no es la única, dice Katarki.

Recomendado:  Scikit-Optimize para la sintonía de hiperparámetros en el aprendizaje de máquinas

“Lo que estamos presentando con 4.10 es OpenShift on Arm en AWS y OpenShift on Arm en bare metal”, dice. “Eso realmente es un juego de nube híbrida. Va de algo que podría desarrollar en el núcleo, en AWS y luego podría querer como un contenedor que la carga de trabajo se ejecuta en el perímetro. Ese dispositivo de borde es típicamente lo que yo llamaría metal desnudo. También se podría virtualizar, pero así somos. así es como pensamos acerca de la nube híbrida. Pero OpenShift es una plataforma. Eso se convierte en una forma importante en la que vinculamos el aprendizaje automático, la nube híbrida y los conceptos de perímetro”.

También hay soporte OpenShift IPI para Microsoft Azure Stack Hub e IBM Cloud, así como Alibaba Cloud como una vista previa de la tecnología. A través de esto, las empresas pueden obtener una instalación totalmente automatizada, integrada y con un solo clic de OpenShift 4.

Suscríbase a nuestro boletín de noticias

Presentando aspectos destacados, análisis e historias de la semana directamente de nosotros a su bandeja de entrada sin nada en el medio.
Suscríbase ahora