Evaluar Conozca los pros y contras de las tecnologías, productos y proyectos que está considerando.

¿Misión imposible? Procesos de gobernanza y “big data”

La gobernanza efectiva puede ayudar a compañías a tener lo mejor de su “big data”. Pero hasta ahora, no hay una fórmula sobre cómo hacerlo.

"Big data" seductoramente, ofrece la promesa de ventajas competitivas a las empresas que lo pueden utilizar para desbloquear secretos acerca de los clientes, el uso del sitio web y otros elementos clave de sus operaciones comerciales. Pero cierta precaución debe prevalecer: Sin un proceso de gobierno de datos adecuado, liderar proyectos de datos grandes puede desencadenar un lío de problemas, incluidos los datos erróneos y los costos inesperados.

El papel del gobierno de datos es mantener los repositorios y grandes volúmenes de datos. Big data, que generalmente implica una gran cantidad de información no estructurada, es un fenómeno muy reciente que ha encontrado su camino en muchas organizaciones bajo el radar del departamento de TI. Como resultado de ello, la gestión de entornos de grandes volúmenes de datos se encuentra en una etapa incipiente, y hay pocas recetas generalizadas para saber cómo hacerlo de manera efectiva, de acuerdo con analistas de la gerencia de datos.

"Big Data es un área tan nueva que nadie ha desarrollado procedimientos y políticas de gobierno", dijo Boris Evelson, analista de Forrester Research Inc. en Cambridge, Massachusetts. "Hay más preguntas que respuestas".

Un problema fundamental es que las piscinas de grandes volúmenes de datos están más orientadas a la exploración de datos y descubrimiento de lo que son la presentación de informes convencionales de Business Intelligence y análisis, Evelson añadió. Eso, dijo, crea un círculo vicioso: "Los datos no se pueden gobernar hasta que se modelan, pero no se puede modelar tampoco hasta que se exploran [por los analistas de datos]".

Los programas de gobernabilidad de datos proporcionan un marco para el establecimiento de datos de uso de las políticas y la implementación de controles diseñados para asegurar que la información sigue siendo precisa, coherente y accesible. Es evidente que un reto importante en el proceso de gobernar grandes datos es categorizar, modelar y mapear los datos a medida que se capturan y se almacenan, en particular debido a la naturaleza no estructurada de gran parte de la información.

"Para obtener información comercial significativa de grandes volúmenes de datos, hay que hacer todo tipo de cosas, como el análisis semántico de los datos, que luego se presta en los modelos conceptuales u ontologías", dijo Malcolm Chisholm, presidente de la consultora de gestión de datos en AskGet Inc. Holmdel, New Jersey "Y todo eso implica un montón de cosas de gobierno."

Buscando pistas en los grandes datos

La dificultad es que todo lo relacionado con el proceso de gobernabilidad de datos para grandes volúmenes de datos es tan nuevo. "Hay una gran falta de madurez cuando se habla de grandes volúmenes de datos, y la mayoría de los gestores de datos realmente no tienen ni idea en lo que se meten ", dijo Chisholm.

Big data, que también se incluye grandes cantidades de datos de transacciones estructuradas, tiene características idiosincrásicas. Es comúnmente definido de acuerdo con la V para tres: volumen, variedad y velocidad. Forrester añade variabilidad a su definición, mientras que su rival de la empresa de consultoría Gartner Inc. se enfoca en la complejidad.

Además, los datos a menudo proviene de fuentes externas, y su exactitud no siempre se puede validar fácilmente; también, el significado y el contexto de datos de texto no es necesariamente evidente. Y en muchos casos, se almacena en sistemas de archivos o bases de datos NoSQL Hadoop en lugar de almacenes de datos convencionales. Para muchas organizaciones, grandes volúmenes de datos implica una curva de aprendizaje colectivo para todos los implicados: gestores de TI, programadores, arquitectos de datos, los datos de los modeladores de datos y profesionales de la gobernanza.

Un fuerte impacto

Una de las mayores dificultades para hacer frente a, y tratando de gobernar, la inundación de grandes volúmenes de datos es perder de vista las prioridades de negocio, dijo Rick Sherman, fundador de Athena IT Solutions, una consultoría en Stow, Massachusetts

Por ejemplo, muchos de los datos no estructurados deben ser capturados por las organizaciones que vienen de los medios sociales, y por lo general sólo una pequeña parte de esa información es de gran valor, de acuerdo con Sherman. "Tratar de manejar o controlar todo en datos no estructurados sería un gran error", dijo, advirtiendo que las empresas podrían terminar perdiendo tiempo y recursos en datos sin importancia.

Danette McGilvray, presidente de Granite Falls Consulting Inc. en Newark, California, también dijo que los grandes volúmenes de datos pueden ser un gran momento del disipador de datos para los equipos de gestión y de gobierno si no se manejan de manera inteligente y sensata. "La única manera de averiguar si los datos son la gestión de valor es si sabemos lo que es la necesidad del negocio", dijo McGilvray. "Cuando se trata de grandes volúmenes de datos, aún necesitamos que se nos recuerde de eso".

Gwen Thomas, fundador y presidente de The Data Governance Institute LLC, una empresa de consultoría y formación en Orlando, Florida, recomienda que los juicios acerca de la calidad de los datos de entrada deba ser una de las prioridades más importantes para los administradores de gobierno de datos que buscan tener sus brazos alrededor de grandes volúmenes de datos. Los controles de calidad Proactive de datos pueden ahorrar un montón de tiempo y dolores en el camino, dijo.

La alineación correcta evita datos inconexos

Thomas agregó que con frecuencia subestiman la importancia de la cartografía de los nuevos datos a los datos de referencia que las organizaciones utilizan para clasificar la información. La alineación de grandes volúmenes de datos con los datos de referencia existentes es "un detalle enorme", dijo. "De hecho, si esto no se hace bien, la información que resulta del procesamiento de grandes volúmenes de datos puede ser engañosa, inexacta o incompleta."

Para ayudar a asegurar que los datos se asignen correctamente, la tarea debe ser asignada a un arquitecto de datos principales en lugar de estar en manos de un modelador de datos con menos experiencia o alguien fuera de él, Thomas aconseja.

Chisholm dijo que los gerentes de gobernabilidad de datos también deben tener como prioridad mantener conversaciones productivas acerca de los modelos de datos aplicables con los programadores y usuarios de negocios, que a menudo inician las instalaciones de datos grandes. Tales discusiones, sin embargo, deben comenzar con un reconocimiento firme de Hadoop y tecnologías NoSQL y en qué difieran de las bases de datos relacionales - y una comprensión de la necesidad de un enfoque unificado para la gestión y gobierno de datos grandes.

Lo que las empresas deben evitar, Chisholm dijo, es permitir que los programadores y los usuarios sigan su propio camino y lleven perspectivas impulsadas por silos para el proceso de configuración de los sistemas de datos grandes y hacer el modelado de datos necesarios y las tareas de mapeo. Eso podría cargar con las grandes facturas de reparación, las instalaciones inadecuadas que no producen los beneficios esperados de negocios e inversiones perdidas en los sistemas innecesarios.

 

Sobre el autor: Roger du Mars es un escritor independiente con sede en Redmond, Washington ha escrito para publicaciones como Time, E.U. Nowadays y The Boston Globe, y anteriormente fue de Seúl, jefe de la oficina de Asiaweek y el South China Morning Post en Corea del Sur.

Profundice más

Inicie la conversación

Envíenme notificaciones cuando otros miembros comenten sobre este artículo.

Por favor cree un Nombre de usuario para poder comentar.

- ANUNCIOS POR GOOGLE

Close