Evaluar Conozca los pros y contras de las tecnologías, productos y proyectos que está considerando.

Las peores prácticas en programas de analítica de big data

Abundan los consejos sobre mejores prácticas, he aquí algunos ejemplos de las peores prácticas que provocan fallos en programas de big data.

La analítica de “big data” (grandes datos) está de moda. Cualquiera que lea una publicación o sitio Web de TI comprobará cómo los proveedores de inteligencia empresarial (BI) y sus socios de sistemas de integración promueven productos y servicios para ayudar a las organizaciones a implementar y administrar sistemas de analítica de “big data”. Los anuncios,  las notas de prensa y los estudios de caso sobre la analítica de grandes datos que se apresuran a sacar a  la luz los proveedores hacen pensar que es algo sencillo, que todo lo que se necesita para su adecuada implementación es una tecnología en particular. Ojalá fuera tan fácil. Si bien los proveedores de BI se muestran felices de platicar sobre aquellos de sus clientes que utilizan con éxito los grandes datos para usos analíticos, normalmente les cuesta conversar sobre los que fracasaron.

Hay múltiples razones por las que los proyectos de analítica de big data  se quedan cortos en sus objetivos y expectativas. Abundan los consejos sobre mejores prácticas para la analítica de big data; por eso, a continuación le ofrecemos ejemplos de algunas de las peores prácticas en programas de analítica de big data, para que sepa qué debe evitar.

“Si lo construimos, vendrán”. Este proverbio hace referencia al típico error que cometen las organizaciones cuando desarrollan su primer sistema de almacenamiento de datos o de inteligencia de negocios (BI). Con demasiada frecuencia, los gestores de proyectos de TI, BI o de programas de analítica se dejan llevar por la hipérbole que rodea la tecnología y olvidan que su principal prioridad sigue siendo la generación de valor para su empresa; la tecnología de análisis de datos es, simplemente, una herramienta para generar dicho valor.

En lugar de adoptar e implementar algo a ciegas, lo primero que deberían hacer quienes proponen un proyecto de analítica de grandes datos es determinar que áreas del negocio se verán beneficiadas de esta tecnología, a fin de establecer un caso de negocio; sólo entonces se seleccionarían e implementarían las herramientas analíticas adecuadas para el trabajo a realizar. Sin una sólida comprensión de los requisitos del negocio, se corre el riesgo de que los equipos de proyecto acaben creando una granja de discos de big data que, en realidad, no aporten nada a la organización y acaben abandonados en “el archivo de la casa del perro”.

Asumir que el software dará todas las respuestas. La construcción de un sistema analítico, especialmente uno que tiene que ver con grandes datos, puede ser complejo y exigir muchos recursos. Por eso, muchas organizaciones suelen esperar que el software que implanten sea una especie de fórmula mágica que ofrezca soluciones para todo. Evidentemente, a estas alturas la gente debería saber que las cosas no son así, pero siguen manteniendo la esperanza. El software ayuda, a veces de forma drástica. Pero la analítica de big data sólo es tan buena como la información que se analiza y las habilidades analíticas de quienes usan las herramientas.

"La analítica de big data sólo es tan buena como la información que se analiza y las habilidades analíticas de quienes usan las herramientas."

No entender que hay que pensar de forma diferente. Muchas veces, la gente insiste con métodos y modelos que funcionaron en el pasado aunque se enfrenten a situaciones diferentes. En el caso de los grandes datos, algunas organizaciones asumen que “grande” simplemente significa más transacciones y grandes volúmenes de datos. Es posible que sea así, pero muchas iniciativas de analítica de big data tienen que ver también con la información no estructurada y semiestructurada que es preciso administrar y analizar de forma fundamentalmente diferente a si fueran datos estructurados en aplicaciones de empresa y almacenes de datos. Así pues, lo más probable es que necesitará nuevos métodos y nuevas herramientas para acceder y capturar, purgar, almacenar e integrar sus grandes datos, o al menos parte de ellos.

Olvidar todas las lecciones del pasado. A veces, las empresas van al extremo de pensar que ahora todo es distinto con los grandes datos y que hay que empezar de cero. Este error puede resultar más letal para un proyecto de analítica de big data que pensar que nada ha cambiado. Sólo porque la información que se desea analizar está estructurada de forma distinta no quiere decir que haya que reescribir las leyes fundamentales de la administración de datos.

No tener la experiencia analítica y de negocio adecuada. Un corolario del equívoco de que la tecnología todo lo puede es la creencia de que lo único que necesitamos para implementar el software de analítica de big data es personal de TI. En primer lugar, siguiendo con la idea de generar valor de negocio discutida arriba, un programa efectivo de analítica de big data tiene que incorporar amplios conocimientos del negocio y de la industria, tanto en la fase de diseño como en la de ejecución de las operaciones. En segundo lugar, muchas organizaciones subestiman el nivel de capacidades analíticas necesario. Si el análisis de grandes datos sólo tuviera que ver con la elaboración de reportes y tableros de instrumentos, a las empresas probablemente les bastaría con las capacidades existentes de BI. Pero la analítica de big data normalmente conlleva procesos más avanzados, como la minería de datos y la analítica predictiva. Esto exige contar con profesionales de la analítica que posean sofisticados conocimientos estadísticos, actuariales y en otras materias, por lo que las organizaciones que dan sus primeros pasos en el terreno de la analítica avanzada pueden verse obligadas a contratar personal experto.

Tratar el proyecto como si fuera un experimento científico. Con excesiva frecuencia, las compañías miden el éxito de los programas de analítica de big data simplemente por el hecho de que la información se esté recopilando y analizando. Sin embargo, la recolección y el análisis de datos sólo es el comienzo. La analítica sólo genera valor para el negocio si se incorpora en los procesos de la empresa y permite a los administradores y usuarios utilizar los resultados del análisis para mejorar el rendimiento y los resultados organizacionales. Para ser realmente efectivo, el programa analítico también debería incluir un mecanismo de retroalimentación que permita comunicar el éxito de las acciones llevadas a cabo como consecuencia de las conclusiones analíticas, a lo que seguiría un refinamiento de los modelos analíticos que esté basado en los resultados obtenidos por la empresa.

Prometer y tratar de hacer demasiado. Muchos proyectos de analítica de big data caen en una gran trampa: quienes proponen el proyecto exageran la rapidez con que van a implementar los sistemas y los beneficios que reportarán a la empresa. Prometer mucho y hacer poco es la manera más segura de lograr que la compañía cancele un proyecto tecnológico. No sólo eso, sino que muchas veces la empresa acaba retrasando cualquier plan para implantar esa tecnología durante mucho tiempo —incluso si a otras empresas les va bien—. Además, cuando se crean expectativas de que los beneficios vendrán de forma fácil y rápida, los directivos de la empresa tienden a subestimar el nivel de implicación y compromiso que se necesita. Y si eso se traduce en no destinar los recursos necesarios, los beneficios esperados normalmente no llegan tan fácil ni tan rápido; como resultado, el proyecto se considera un fracaso.

La analítica de big data puede generar un importante valor para la organización, pero también puede resultar un fracaso estrepitoso si no somos cuidadosos y aprendemos de los errores de otras compañías. No se conviertas en el próximo ejemplo de cómo no gestionar la implementación de un proyecto de analítica de grandes datos.

 

ACERCA DEL AUTOR.
Rick Sherman es fundador de Athena IT Solutions, firma que proporciona servicios de consultoría, formación y venta en áreas de inteligencia empresarial, integración y almacenamiento de datos. Sherman es autor de más de 100 artículos y ha dado conferencias en docenas de eventos y webinars; es también profesor adjunto en la Escuela de Ingeniería de la Universidad de Northwestern. Sherman mantiene un blog en The Data Doghouse y se le puede escribir a rsherman@athena-solutions.com.

Investigue más sobre Análisis de negocios e inteligencia de negocios

Inicie la conversación

Envíenme notificaciones cuando otros miembros comenten sobre este artículo.

Por favor cree un Nombre de usuario para poder comentar.

- ANUNCIOS POR GOOGLE

Close