Matt Elenjickal, fundador y director ejecutivo de FourKites, ha señalado que «los datos son el combustible en bruto de una transformación digital». ¡Pero deben ser datos de calidad! “Al igual que cualquier chef le dirá que cualquier cosa menos que los ingredientes de la mejor calidad puede hacer que un plato no sea comestible, también los datos incorrectos pueden arruinar cualquier esfuerzo de TI basado en datos”.
Cuando las implementaciones empresariales tardan más de lo esperado, casi todas lo hacen, la cantidad de tiempo necesaria para limpiar los datos suele ser el factor principal. Cuando el rendimiento de los sistemas empresariales se degrada, a menudo se debe a que los parámetros utilizados en los sistemas ya no son precisos. Esto también es un problema de datos. Gestión de datos maestros (MDM) como un controlador de rendimiento crítico para la empresa.
¿Qué es la gestión de datos maestros?
La gestión de datos maestros es la disciplina que garantiza que los datos sean precisos, accesibles y actualizados. Desafortunadamente, para muchos departamentos, los datos necesarios para operar de manera efectiva provienen de toda la empresa, no se generan dentro de ese departamento. APQC y el Digital Supply Chain Institute (DSCI) han llevado a cabo investigaciones de mejores prácticas y evaluación comparativa en MDM. APQC es una organización sin fines de lucro basada en miembros que realiza evaluaciones comparativas, mejores prácticas e investigaciones de mejora del rendimiento. Parte de lo que hace que la investigación de APQC sea tan buena es que pueden lograr que un gran número de miembros participen y luego tienen un sólido proceso de validación. En esta investigación participaron más de 1300 encuestados calificados.
APQC define los datos maestros como el conjunto de identificadores y atributos extendidos que describen las entidades centrales de una empresa. Estos incluyen clientes, productos, proveedores y sitios/activos. Para la cadena de suministro, otros conjuntos de datos básicos también incluirían rendimiento/tiempos de entrega y riesgos globales. Todos estos datos deben mantenerse actualizados y limpios.
Los mejores en la investigación de APQC participaron en un proceso continuo de organización, categorización, sincronización y enriquecimiento de registros de datos maestros. Por lo general, habilitado por la tecnología, MDM requiere que los equipos comerciales y de TI trabajen juntos para garantizar la uniformidad, la precisión, la administración, la coherencia semántica y la responsabilidad de los activos de datos maestros compartidos oficiales de la empresa.
La gestión eficaz de datos maestros no es un proceso de «uno y listo». Es un viaje continuo que requiere una gobernanza clara y una atención constante. La propiedad centralizada es un requisito fundamental.
En la investigación de APQC, cuando se preguntó a los encuestados cómo se administran los datos maestros, solo el 64 % informó que su organización los centraliza en una función de toda la empresa, como un director de datos. Un enfoque descentralizado, por ejemplo, cuando las ventas son propietarias de los datos de los clientes y la cadena de suministro es propietaria de los datos de los proveedores, prepara a una organización para el fracaso.
Los datos de alta calidad son fundamentales. Cuando una organización ingiere datos de docenas o incluso cientos de aplicaciones diversas, las empresas verán registros duplicados, campos incompletos, inconsistencias de formato, diferentes idiomas y diferentes unidades de medida.
Lograr el dominio de los datos
Debido a que tantas empresas confían en FourKites para la visibilidad del transporte en tiempo real, y la complejidad asociada con proporcionar eso, FourKites es un maestro en la gestión de datos maestros. Ofrecen varios consejos.
Varias capas de cheques – “Las organizaciones más efectivas tienen varias capas de verificación de los datos a medida que ingresan a la organización. La primera orden del día es evitar que los datos incorrectos entren en los sistemas en primer lugar.
Sacar a los humanos del circuito – Los errores son mucho más comunes cuando las organizaciones dependen de humanos para ingresar los datos. Desafortunadamente, no siempre es posible sacar a los humanos del círculo. Esto es particularmente cierto para ingresar nuevos datos de clientes y proveedores.
Alertas – Cuando se encuentran datos incorrectos, el siguiente paso es informar a alguien. Debe haber un mecanismo de alerta y una forma de escalar las alertas para datos importantes y sensibles al tiempo que están sucios. Los equipos deben centrarse primero en los problemas de datos más críticos.
Remediación – El siguiente paso es la remediación. En resumen, ¿qué debe hacer una organización cuando se entera de que los datos son malos? Las empresas deben determinar si pueden resolver un problema de calidad de datos determinado o si deben volver a los proveedores externos que fueron la fuente de los datos.
Usar tecnología – El reconocimiento de patrones y otras funciones pueden ayudar a detectar cuándo es probable que los datos sean incorrectos. Por ejemplo, FourKites depende en gran medida de las coordenadas de latitud y longitud para la carga. Usan tecnología para garantizar que estos datos lleguen en una forma numérica específica.
La tecnología para la detección de errores de datos también se está integrando cada vez más en otras aplicaciones empresariales, en particular en las soluciones de la cadena de suministro. Por ejemplo, las bases de datos de gráficos están comenzando a usarse para ayudar a encontrar los datos maestros correctos en una variedad de sistemas necesarios en una implementación de planificación. Además, el aprendizaje automático se está utilizando para mantener actualizada la información sobre el tiempo de entrega.
Conclusión
Uno de los impulsores de las transformaciones digitales se basa en la idea de que Big Data se puede aprovechar para la diferenciación competitiva. Si bien Big Data es un concepto popular, la mayoría de las empresas se están ahogando en datos. ¿Es necesario comprobar y limpiar todos esos datos de forma continua? Probablemente no. No todos los datos son igualmente importantes. Lo que también se necesita es una comprensión de los datos específicos necesarios para lograr objetivos y tareas específicos y una priorización de esas actividades.