Saltar al contenido

Reducir la brecha de migración de datos

16 de febrero de 2021

En esta función de invitado especial, Tony Velcich, director senior de marketing de productos de WANdisco, analiza lo que él llama la «brecha de migración de datos» y cómo esta brecha se ha vuelto aún más prominente y aguda dados los eventos recientes. Tony es un líder de marketing y gestión de productos con más de 25 años de experiencia en la industria del software. Tony es actualmente responsable del marketing de productos en WANdisco, lo que ayuda a impulsar la estrategia, el contenido y las actividades de comercialización. Tony tiene una sólida experiencia en gestión de datos y ha trabajado en empresas líderes de bases de datos como Oracle, Informix y TimesTen, donde dirigió la estrategia para áreas como análisis de big data para la industria de las telecomunicaciones, automatización de la fuerza de ventas, así como análisis de ventas y experiencia del cliente.

Incluso cuando una encuesta reciente encontró que la migración a la nube sigue siendo una prioridad para las empresas en 2020 y más allá, las partes interesadas de big data aún enfrentan una seria brecha entre lo que querer hacer y lo que ellos lata hacer.

Miriam-Webster define «brecha» como «un área incompleta o deficiente» o «un problema causado por alguna disparidad». En el caso de los lagos de datos empresariales, esta disparidad es la diferencia entre lo que los profesionales de big data querer para migrar a la nube y lo que lata migrar sin afectar negativamente la continuidad del negocio.

->

->

Yo llamo a esto el brecha de migración de datos. Y esta brecha se ha vuelto aún más prominente y aguda dados los eventos recientes. La migración a la nube nunca ha ganado una mayor participación en la suite ejecutiva y en las trincheras del trabajo desde casa. La pandemia de COVID-19 ha asegurado que todos se den cuenta de que la migración a la nube es crucial para la productividad remota. Pero incluso cuando las empresas envían aplicaciones y datos críticos para la empresa a la nube, gran parte de los datos acumulados en los últimos años se quedan en lagos de datos heredados locales.

Recomendado:  Gran Premio de la Ciudad de la Música de Big Machine

Data Lakes: Dejados atrás

El lago de datos local se concibió y adoptó como una forma rentable de almacenar petabytes de datos a un precio que era una fracción del almacenamiento de datos tradicional. Sin embargo, las empresas se dieron cuenta rápidamente de que almacenar datos y usando fueron dos desafíos completamente diferentes. Las organizaciones no pudieron igualar el rendimiento, la seguridad o la integración de herramientas comerciales de sus almacenes de datos, que eran más costosos pero más manejables.

Hoy en día, los lagos de datos viven en sus formatos originales en industrias donde los análisis sensibles al tiempo y ricos en información son menos importantes, y donde el costo supera la eficiencia. Sin embargo, las empresas más dinámicas están pasando del almacenamiento local y miles de millones de consultas por lotes a análisis en tiempo real sobre conjuntos de datos masivos basados ​​en la nube. Y para estas empresas, la cuestión se ha convertido en ya sea para mover petabytes de datos de clientes críticos para el negocio y que cambian activamente, pero como hacerlo sin causar interrupciones en el negocio y minimizar el tiempo, los costos y los riesgos asociados con los enfoques de migración de datos heredados?

Métodos actuales: ventajas y desventajas

¿Cuáles son las estrategias que se están utilizando para cerrar la brecha de migración de datos? ¿Cómo están migrando actualmente las empresas sus datos activos? Hay tres enfoques comunes, cada uno con sus beneficios (y dificultades) relativos:

  • Levantar y cambiar – Se utiliza un enfoque de elevación y cambio para migrar aplicaciones y datos de un entorno a otro con cambios mínimos o nulos. Sin embargo, existe el peligro de suponer que lo que funcionó en las instalaciones funcionará como está en la nube. Las migraciones de elevación y cambio no siempre aprovechan al máximo las eficiencias y capacidades mejoradas de la nube. A menudo, las deficiencias de las implementaciones existentes se trasladan con los datos y las aplicaciones al nuevo entorno de nube, lo que hace que este enfoque sea aceptable solo para conjuntos de datos simples o estáticos.
  • Copia incremental – Un enfoque de copia incremental es donde los datos nuevos y modificados se copian periódicamente desde el origen al entorno de destino durante múltiples pasadas. Esto requiere que los datos de origen originales se migren primero al destino y luego los cambios incrementales en los datos procesados ​​con cada paso posterior. El desafío clave con este enfoque surge cuando se trata de un gran volumen de datos cambiantes. En este caso, es posible que los pases nunca se pongan al día con los datos cambiantes y completen la migración sin requerir tiempo de inactividad.
  • Doble canalización / ingesta – Un enfoque de canalización dual o ingesta dual es donde los nuevos datos se ingieren simultáneamente en los entornos de origen y destino. Este enfoque requiere un esfuerzo significativo para desarrollar, probar, operar y mantener múltiples tuberías. También exige que las aplicaciones se modifiquen para actualizar siempre los entornos de origen y de destino cuando se realizan cambios en los datos, lo que requiere esfuerzos de desarrollo significativos.
Recomendado:  Perspectivas sobre el mercado global de telemetría hasta 2027: la creciente integración de dispositivos inteligentes con Big Data está impulsando el crecimiento - ResearchAndMarkets.com

Una cuarta forma: cerrar la brecha en la migración de datos

Una estrategia diferente, y quizás una más adecuada para los entornos de datos dinámicos de la mayoría de las empresas con uso intensivo de datos, sería permitir migraciones sin cambios en las aplicaciones o interrupciones comerciales, incluso cuando los conjuntos de datos están bajo cambios activos. Este paradigma permite migraciones de cualquier escala con un solo paso de los datos de origen, al tiempo que admite la replicación continua de los cambios en curso desde el origen al destino.

Si bien las metodologías existentes tienen su validez y casos de uso, la nueva tecnología está empoderando a las partes interesadas de big data para cerrar la brecha de migración de datos de manera más rentable y eficiente. Elegir la opción correcta puede hacer que la migración a la nube sea más rápida y más asequible para cualquier empresa.

Suscríbase al boletín gratuito insideBIGDATA.

Únase a nosotros en Twitter: @ InsideBigData1 – https://twitter.com/InsideBigData1