Saltar al contenido

AWS anuncia la disponibilidad general de las instancias de Amazon EC2 DL1

30 de octubre de 2021

Amazon Web Services, Inc. (AWS), una empresa de Amazon.com, Inc. (NASDAQ: AMZN), anunció la disponibilidad general de las instancias DL1 de Amazon Elastic Compute Cloud (Amazon EC2), un nuevo tipo de instancia diseñado para entrenar modelos de aprendizaje automático. Las instancias DL1 están impulsadas por aceleradores Gaudi de Habana Labs (una empresa de Intel) para proporcionar hasta un 40% más de rendimiento de precios para entrenar modelos de aprendizaje automático que las últimas instancias Amazon EC2 impulsadas por GPU. Con las instancias DL1, los clientes pueden entrenar sus modelos de aprendizaje automático de forma más rápida y rentable para casos de uso como procesamiento de lenguaje natural, detección y clasificación de objetos, detección de fraude, motores de recomendación y personalización, procesamiento inteligente de documentos, previsión empresarial y más. Las instancias DL1 están disponibles bajo demanda a través de un modelo de uso de bajo costo de pago por uso sin compromisos iniciales. Para comenzar con las instancias DL1, visite aws.amazon.com/ec2/instance-types/dl1.

El aprendizaje automático se ha generalizado a medida que los clientes se han dado cuenta de un impacto comercial tangible al implementar modelos de aprendizaje automático a escala en la nube. Para utilizar el aprendizaje automático en sus aplicaciones comerciales, los clientes comienzan por crear y entrenar un modelo para reconocer patrones mediante el aprendizaje de datos de muestra y luego aplicar el modelo en nuevos datos para hacer predicciones. Por ejemplo, un modelo de aprendizaje automático entrenado en una gran cantidad de transcripciones del centro de contacto puede hacer predicciones para brindar asistencia personalizada en tiempo real a los clientes a través de un chatbot conversacional. Para mejorar la precisión de la predicción de un modelo, los científicos de datos y los ingenieros de aprendizaje automático están construyendo modelos cada vez más grandes y complejos. Para mantener la precisión de la predicción y la alta calidad de los modelos, estos ingenieros necesitan ajustar y volver a entrenar sus modelos con frecuencia. Esto requiere una cantidad considerable de recursos informáticos de alto rendimiento, lo que se traduce en mayores costos de infraestructura. Estos costos pueden ser prohibitivos para que los clientes vuelvan a capacitar sus modelos con la frecuencia que necesitan para mantener predicciones de alta precisión, al mismo tiempo que representan un obstáculo para los clientes que desean comenzar a experimentar con el aprendizaje automático.

Las nuevas instancias DL1 utilizan aceleradores de Gaudi creados específicamente para acelerar el entrenamiento del modelo de aprendizaje automático al ofrecer una mayor eficiencia informática a un costo menor en comparación con las GPU de uso general. Las instancias DL1 cuentan con hasta ocho aceleradores Gaudi, 256 GB de memoria de gran ancho de banda, 768 GB de memoria del sistema, procesadores escalables Intel Xeon (Cascade Lake) personalizados de Amazon de segunda generación, 400 Gbps de rendimiento de red y hasta 4 TB de NVMe local almacenamiento. Juntas, estas innovaciones se traducen en hasta un 40% más de rendimiento de precios que las últimas instancias Amazon EC2 con tecnología de GPU para entrenar modelos comunes de aprendizaje automático. Los clientes pueden comenzar rápida y fácilmente con las instancias DL1 utilizando el SDK Habana SynapseAI incluido, que está integrado con los principales marcos de aprendizaje automático (p. Ej., TensorFlow y PyTorch), lo que ayuda a los clientes a migrar sin problemas sus modelos de aprendizaje automático existentes que se ejecutan actualmente en CPU o GPU. instancias basadas en instancias DL1, con cambios mínimos de código. Los desarrolladores y científicos de datos también pueden comenzar con modelos de referencia optimizados para aceleradores de Gaudí disponibles en el repositorio GitHub de Habana, que incluye modelos populares para diversas aplicaciones, incluida la clasificación de imágenes, detección de objetos, procesamiento de lenguaje natural y sistemas de recomendación.

“El uso del aprendizaje automático se ha disparado. Sin embargo, uno de los desafíos con el entrenamiento de modelos de aprendizaje automático es que es computacionalmente intensivo y puede resultar costoso a medida que los clientes refinan y vuelven a capacitar sus modelos ”, dijo David Brown, vicepresidente de Amazon EC2, en AWS. “AWS ya tiene la opción más amplia de computación potente para cualquier proyecto o aplicación de aprendizaje automático. La adición de instancias DL1 con aceleradores de Gaudi proporciona la alternativa más rentable a las instancias basadas en GPU en la nube hasta la fecha. Su combinación óptima de precio y rendimiento hace posible que los clientes reduzcan el costo de entrenamiento, entrenar más modelos e innovar más rápido ”.

Los clientes pueden lanzar instancias DL1 usando AWS Deep Learning AMI o usando Amazon Elastic Kubernetes Service (Amazon EKS) o Amazon Elastic Container Service (Amazon ECS) para aplicaciones en contenedores. Para una experiencia más administrada, los clientes pueden acceder a las instancias DL1 a través de Amazon SageMaker, lo que facilita y agiliza aún más a los desarrolladores y científicos de datos la creación, capacitación e implementación de modelos de aprendizaje automático en la nube y en el perímetro. Las instancias DL1 se benefician del AWS Nitro System, una colección de componentes básicos que descargan muchas de las funciones de virtualización tradicionales en hardware y software dedicados para brindar alto rendimiento, alta disponibilidad y alta seguridad, al tiempo que reducen los gastos generales de virtualización. Las instancias DL1 están disponibles para su compra como instancias bajo demanda, con planes de ahorro, como instancias reservadas o como instancias puntuales. Actualmente, las instancias DL1 están disponibles en las regiones de AWS de EE. UU. Este (Norte de Virginia) y EE. UU. Oeste (Oregón).

Recomendado:  El mundo al revés de la suscripción acelerada y la inteligencia artificial | Carlton Fields

Seagate Technology ha sido un líder mundial que ofrece soluciones de gestión y almacenamiento de datos durante más de 40 años. Los ingenieros de ciencia de datos y aprendizaje automático de Seagate han creado un sistema avanzado de detección de defectos de aprendizaje profundo (DL) y lo han implementado a nivel mundial en las instalaciones de fabricación de la empresa. En un proyecto de prueba de concepto reciente, Habana Gaudi superó los objetivos de rendimiento para entrenar uno de los modelos de segmentación semántica DL que se utilizan actualmente en la producción de Seagate.

“Esperamos que la importante ventaja de rendimiento de precio de las instancias Amazon EC2 DL1, impulsadas por los aceleradores Habana Gaudi, pueda ser una atractiva incorporación futura a los clústeres de cómputo de AWS”, dijo Darrell Louder, Director de Ingeniería Senior de Operaciones, Tecnología y Análisis Avanzado de Seagate. «A medida que Habana Labs continúa evolucionando y permite una cobertura más amplia de operadores, existe la posibilidad de expandirse a casos de uso empresarial adicionales y, por lo tanto, aprovechar ahorros de costos adicionales».

Intel ha creado la tecnología de seguimiento de atletas en 3D que analiza videos de atletas en acción en tiempo real para informar los procesos de entrenamiento de rendimiento y mejorar las experiencias de la audiencia durante las competencias.

“Entrenar nuestros modelos en instancias de Amazon EC2 DL1, con la tecnología de los aceleradores de Gaudí de Habana Labs, nos permitirá procesar de forma precisa y confiable miles de videos y generar datos de rendimiento asociados, al tiempo que reducimos el costo de capacitación”, dijo Rick Echevarria, vicepresidente de ventas y Grupo de marketing, Intel. «Con las instancias DL1, ahora podemos entrenar a la velocidad y el costo requeridos para atender de manera productiva a atletas, equipos y locutores de todos los niveles en una variedad de deportes».

Riskfuel proporciona valoraciones en tiempo real y sensibilidades al riesgo a las empresas que gestionan carteras financieras, ayudándolas a aumentar la precisión y el rendimiento de las operaciones.

«Dos factores nos llevaron a las instancias de Amazon EC2 DL1 basadas en los aceleradores de IA de Habana Gaudi», dijo Ryan Ferguson, director ejecutivo de Riskfuel. “Primero, queremos asegurarnos de que nuestros clientes bancarios y de seguros puedan ejecutar modelos de Riskfuel que aprovechen el hardware más nuevo. Descubrimos que la migración de nuestros modelos a instancias DL1 era simple y directa; en realidad, solo era cuestión de cambiar algunas líneas de código. En segundo lugar, los costos de capacitación son un componente importante de nuestro gasto, y la promesa de una mejora de hasta un 40% en el desempeño de los precios ofrece un beneficio potencialmente sustancial para nuestro resultado final «.

Leidos es reconocido como uno de los 10 principales proveedores de TI para la salud que ofrece una amplia gama de soluciones escalables y personalizables para hospitales y sistemas de salud, organizaciones biomédicas y todas las agencias federales de EE. UU. Centradas en la salud.

“Una de las numerosas tecnologías que estamos habilitando para promover la atención médica en la actualidad es el uso del aprendizaje automático y el aprendizaje profundo para el diagnóstico de enfermedades basado en datos de imágenes médicas. Nuestros conjuntos de datos masivos requieren capacitación oportuna y eficiente para ayudar a los investigadores que buscan resolver algunos de los misterios médicos más urgentes ”, dijo Chetan Paul, CTO Health and Human Services en Leidos. “Dada la necesidad de Leidos y sus clientes de capacitación rápida, fácil y rentable para modelos de aprendizaje profundo, estamos entusiasmados de haber comenzado este viaje con Intel y AWS para usar instancias Amazon EC2 DL1 basadas en procesadores Habana Gaudi AI. Con las instancias DL1, esperamos un aumento en la velocidad y la eficiencia del entrenamiento del modelo, con una consiguiente reducción del riesgo y el costo de la investigación y el desarrollo «.

Fractal es un líder mundial en inteligencia artificial y análisis, que impulsa las decisiones en las empresas Fortune 500.

“La inteligencia artificial y el aprendizaje profundo son la base de nuestro negocio de imágenes de atención médica, lo que permite a los clientes tomar mejores decisiones médicas. Con el fin de mejorar la precisión, los conjuntos de datos médicos son cada vez más grandes y complejos, lo que requiere más capacitación y reentrenamiento de los modelos e impulsa la necesidad de mejorar el rendimiento del precio de la computación ”, dijo Srikanth Velamakanni, CEO del Grupo Fractal. «Las nuevas instancias de Amazon EC2 DL1 prometen una formación de costes significativamente menor que las instancias EC2 basadas en GPU, lo que puede ayudarnos a contener los costes y hacer que la toma de decisiones de IA sea más accesible para una gama más amplia de clientes».

Suscríbase al boletín gratuito insideBIGDATA.

Únase a nosotros en Twitter: @ InsideBigData1 – https://twitter.com/InsideBigData1