Saltar al contenido

HPE más MapR: Demasiado Hadoop, no hay suficiente nube

20 de julio de 2020

La nube mató las fortunas de la trinidad Hadoop -Cloudera, Hortonworks y MapR- y es probable que esa misma nube no haga llover el éxito sobre HPE, que recientemente adquirió los activos comerciales de MapR. Mientras que el acuerdo promete unir «la tecnología, la propiedad intelectual y la experiencia de dominio de MapR en inteligencia artificial y aprendizaje automático (AI/ML) y gestión de datos analíticos» con las «capacidades de la Plataforma de Datos Inteligentes» de HPE, el acuerdo está desprovisto del único ingrediente que ambas empresas más necesitan: la nube.

El problema, en otras palabras, no es que MapR no se llenó hasta el borde con gente inteligente y gran tecnología, como insiste el analista de Wikibon James Kobielus. No, el problema es que MapR sigue siendo demasiado hadoop y no está lo suficientemente nublado en un mundo lleno de «totalmente integrado»… [cloud-first] ofertas que tienen un menor costo de adquisición y son más baratas de escalar», como ha dicho el CEO de Diffblue, Mathew Lodge. En resumen, MapR puede expandir los activos de datos de HPE, pero no hace que HPE sea un competidor de la nube.

Por qué la nube importa

Sí, la nube híbrida sigue siendo una cosa, y seguirá siéndolo durante muchos años. Por mucho que las empresas quieran dirigir las cargas de trabajo hacia un futuro nublado, el 95 por ciento de la TI permanece firmemente plantada en centros de datos privados. Las nuevas cargas de trabajo tienden a irse a la nube, pero hay literalmente décadas de cargas de trabajo que siguen funcionando en las instalaciones.

Pero este mundo híbrido, que el HPE lanza tan fuerte («innovación con la nube híbrida», «de borde a nube», «aprovechar el poder de los datos dondequiera que viva», etc.), no ha sido tan grande en las grandes cargas de trabajo de datos. Parte de la razón se reduce a la dependencia de modelos de la vieja escuela como Hadoop, «construido para ser una gigantesca fuente única de datos», como señaló el CEO de Amalgam Insights, Hyoun Park. Ese es un modelo engorroso, especialmente en un mundo donde los grandes datos nacen en la nube y quieren permanecer allí, en lugar de ser enviados a los servidores de las instalaciones. ¿Puedes ejecutar Hadoop en la nube? Por supuesto. Empresas como AWS hacen precisamente eso (Elastic MapReduce, ¿alguien?). Pero podría decirse que incluso el Hadoop en la nube es una estrategia perdedora para la mayoría de las grandes cargas de trabajo de datos, porque simplemente no encaja en el mundo de los datos en streaming en el que vivimos.

Recomendado:  Construyendo una tubería de datos con Apache NiFi - Hadoop en el mundo real

Y luego está el problema de las instalaciones. Como me dijo el jefe de ciencia de datos de AWS, Matt Wood, la elasticidad de las nubes es crucial para hacer bien la ciencia de los datos:

Aquellos que salen y compran infraestructura costosa encuentran que el alcance del problema y el dominio cambian muy rápidamente. Para cuando llegan a responder la pregunta original, el negocio ha avanzado. Necesita un entorno que sea flexible y que le permita responder rápidamente a los cambiantes grandes requerimientos de datos. Su combinación de recursos está en continua evolución: si compra infraestructura, es casi inmediatamente irrelevante para su negocio porque está congelada en el tiempo. Es la solución de un problema que puede que ya no tenga o que no le importe.

MapR se había esforzado por ir más allá de su pasado Hadoop en las instalaciones, pero podría decirse que demasiado poco, demasiado tarde.

Hermano, ¿podrías darme una nube?

Lo que nos lleva de vuelta a HPE. En 2015 la compañía dejó su oferta pública de nubes, en su lugar decidió «duplicar nuestras capacidades de nubes privadas y gestionadas». Eso puede haber parecido aceptable cuando OpenStack todavía respiraba, pero encasilló a HPE como un vendedor mayormente en las instalaciones que intentaba asociarse para lograr la relevancia pública en la nube. No es suficiente.

Mientras que Red Hat, por ejemplo, puede afirmar de forma creíble que posee activos profundos en Kubernetes (Red Hat OpenShift) que ayudan a las empresas a construir para escenarios híbridos y multi-nube, HPE no. Ha tratado de llegar a ella mediante la adquisición (por ejemplo, BlueData para los contenedores), pero simplemente carece de un conjunto de productos cohesivos.

Recomendado:  ¿Cómo funciona el Cartesian Product Join en Spark? - Hadoop en el mundo real

Lo que es más preocupante es que todos los principales proveedores de nubes públicas cuentan ahora con una sólida oferta de nubes híbridas, y las empresas interesadas en modernizarse a menudo optan por el primer proveedor de nubes que también tiene experiencia en centros de datos privados, en lugar de apostar por los proveedores heredados con aspiraciones de relevancia en las nubes públicas. Para Google, es Anthos. Para Microsoft Azure, el híbrido fue central en la oferta de productos y en el marketing de la compañía desde el principio. Y para AWS, que en su momento evitó los centros de datos privados, la empresa ha creado una serie de servicios híbridos (por ejemplo, Snowball) y asociaciones (VMware) para ayudar a las empresas a tener su pastel de nube y comer también centros de datos privados.

Entra en MapR, con su enfoque contrario y propietario del mercado de código abierto de Hadoop. Ese enfoque le ganó unos cuantos convertidos clave, pero nunca tuvo una amplia base de seguidores. ¿Buena tecnología? Claro. ¿ADN y productos turbios? No.

En resumen, aunque espero que la unión de HPE y MapR dé como resultado clientes empresariales felices y turbios, esta «duplicación» por parte de HPE de los activos tecnológicos que la mantienen firmemente asentada en las instalaciones no es muy prometedora. Los grandes datos pertenecen a la nube, y la nube no es algo que se pueda comprar. Es una forma diferente de operar, una forma diferente de pensar. El HPE no obtuvo ese ADN con MapR.