Evaluar Conozca los pros y contras de las tecnologías, productos y proyectos que está considerando.

Programas de analítica de big data exigen conocimiento del negocio y experiencia en TI

Normalmente se piden conocimientos sobre tecnologías de big data, pero también es preciso contar con capacidades en BI e integración y almacenamiento de datos.

Los artículos y estudios de caso que se han escrito sobre los programas de analítica de “big data”(grandes datos) proclaman los éxitos de las organizaciones, normalmente resaltando las tecnologías utilizadas para construir los sistemas. La información sobre productos es útil, evidentemente, pero también es absolutamente esencial que las organizaciones que se embarquen en este tipo de proyectos tengan la seguridad de contar con personas con la experiencia y conocimientos apropiados para extraer la máxima utilidad a las herramientas de analítica de big data.

Normalmente se piden conocimientos sobre las nuevas o emergentes tecnologías de big data, como Hadoop, especialmente si el proyecto tiene que ver con datos semiestructurados o no estructurados. Pero, incluso en estos casos, saber manejar Hadoop es sólo una pequeña porción de todos los requisitos que debe tener el personal del proyecto; también es preciso contar con capacidades en las áreas de inteligencia empresarial (BI) e integración y almacenamiento de datos. Otros de los requisitos sine qua non que debe cumplir un programa de analítica de big data exitoso es tener conocimientos y experiencia sobre el negocio y la industria. Muchas organizaciones también buscan capacidades analíticas avanzadas, como análisis predictivo y técnicas de minería de datos.

“Científico de datos” es una nueva categoría laboral que está adquiriendo cierta popularidad en la industria. En realidad, es un título que combina capacidades de todas las áreas mencionadas arriba, incluyendo también la elaboración de modelos predictivos, análisis tanto estadísticos como del negocio, y desarrollo de la integración de datos. He visto algunas ofertas de empleo para científicos de datos que exigen un título en estadística además de otro relacionado específicamente con la industria concreta. Poseer dos titulaciones y experiencia profesional relevante es fantástico, pero ¿cuáles son las probabilidades de encontrar candidatos que tengan todo eso? ¡Bastante pocas!

Adoptando una perspectiva más realista sobre los aspectos a planificar, a continuación ofrezco una descripción de los conjuntos más importantes de capacidades y funciones que deberían formar parte de los proyectos de analítica de big data. En lugar de hacer un listado de títulos profesionales o trabajos específicos, he mantenido una visión general; las organizaciones pueden unificar roles y responsabilidades de diversas maneras según los niveles de capacidad y experiencia de su plantel de trabajo en cada momento y de las nuevas contrataciones que realicen.

Conocimiento empresarial. Además de habilidades técnicas, las compañías que deciden entrar en el terreno de los proyectos de analítica de big data necesitan involucrar a personas con una amplia experiencia empresarial en la industria. Aquí se incluiría el conocimiento de la propia estrategia empresarial y las operaciones de una organización, así como de los competidores, las condiciones actuales del sector y tendencias emergentes, demografía de los clientes y factores micro y macroeconómicos.

Gran parte del valor de negocio derivado de la analítica de grandes datos no proviene de los indicadores clave de rendimiento más tradicionales, sino de intuiciones, descubrimientos y datos desgranados del propio proceso analítico. El proceso es en parte ciencia (por ejemplo, estadística), y por otro lado, arte, como cuando los usuarios efectúan un análisis de hipótesis para obtener información que pueda ser posteriormente aplicable a las operaciones de negocio de una organización. Tales descubrimientos son sólo posibles con la participación de los administradores y trabajadores que tienen un conocimiento de primera mano de las estrategias y cuestiones que afectan a la actividad de cada empresa en particular.

Analistas empresariales. Este grupo juega también un rol importante a la hora de ayudar a las organizaciones a comprender las ramificaciones de los grandes datos para sus negocios. Además de llevar a cabo una tarea puramente analítica, estos expertos pueden también recibir la tarea de recopilar los requisitos de negocio y los datos para un proyecto determinado, ayudando a diseñar tableros de control (dashboards), reportes y visualización de información para presentar los descubrimientos del análisis a los usuarios y ayudar a cuantificar el valor que el programa analítico tiene para el negocio.

"No caiga en la tentación de pensar que el éxito en la analítica de big data depende solamente de las herramientas. La verdadera clave del éxito está en garantizar que su organización dispone de las capacidades que necesita."

Desarrolladores de BI. Estas son personas que colaboran con los analistas empresariales para construir los tableros de instrumentos, reportes y visualizaciones necesarias para los usuarios del negocio. Junto a esto, dependiendo de las necesidades internas y las herramientas de inteligencia de negocios (BI) que utilice una organización, pueden también habilitar capacidades de autoservicio de BI mediante la elaboración de datos y plantillas de BI necesarias para el uso de los directivos y trabajadores de la empresa.

Constructores de modelos predictivos. En general, los modelos predictivos para analizar big data tienen que estar hechos a medida. Para crear buenos modelos es esencial contar con un profundo dominio y conocimiento de la estadística. Con demasiada frecuencia, las compañías subestiman el nivel de capacitación necesario y contratan a gente que sí ha usado herramientas estadísticas, incluidos algunos modelos desarrollados por otros, pero que no conocen los principios matemáticos subyacentes en los modelos predictivos.

Las personas que realizan modelos predictivos también necesitan tener ciertos conocimientos empresariales y entender los mecanismos de recopilación e integración de la información en modelos, aunque en ambos casos pueden apoyarse en otras personas más experimentadas en la creación y refinamiento de los modelos. Otra capacidad clave que deben tener quienes formulan este tipo de modelos es la de evaluar el grado de limpieza, actualidad y amplitud de la información disponible. A menudo existen lagunas o carencias en los datos y el analista tiene que saber cubrirlas.

Arquitectos de datos. Los proyectos de analítica de grandes datos necesitan alguien que diseñe la infraestructura de datos y guíe su desarrollo. Normalmente, los arquitectos de datos tendrán que incorporar varias estructuras de información en una sola arquitectura, además de los procesos necesarios para capturar y almacenar los datos y hacerlos disponibles para el análisis. Esta función abarca diversas capacidades tradicionales de TI, como la elaboración de modelos, el análisis de perfiles, la calidad, la integración y la gobernanza de los datos.

Desarrolladores de integración de datos. La integración de datos es suficientemente importante para necesitar sus propios desarrolladores. Estos sujetos diseñan y desarrollan procesos de integración para manejar el espectro completo de estructuras informativas en un entorno de grandes datos. Con ello se aseguran, al menos teóricamente, de que la integración no se lleve a cabo en silos sino dentro de una arquitectura de datos global.

Asimismo, es preferible usar herramientas de integración de datos en paquetes que soporten múltiples tipos de datos, incluyendo fuentes estructuradas, no estructuradas y semiestructuradas. Conviene evitar la tentación de desarrollar código a medida para manejar, extraer, transformar y cargar operaciones en grupos de grandes datos; el hand coding puede aumentar los costos del proyecto, sin mencionar la posibilidad de que la organización quede cargada con procesos de integración de datos indocumentados, incapaces de escalarse según crecen los volúmenes de información.

Arquitectos de tecnología. Este rol tiene que ver con el diseño de la infraestructura subyacente de TI que servirá de soporte a la iniciativa de analítica de grandes datos. Además de entender los principios del diseño tradicional del almacenamiento de datos y los sistemas de BI, los arquitectos tecnológicos deben contar con experiencia en las nuevas tecnologías que habitualmente se emplean en los proyectos de big data. Y si la organización planea implementar herramientas de código abierto como Hadoop, los arquitectos tendrán que entender cómo configurar, diseñar, desarrollar e implementar dichos sistemas.

Abordar un proyecto de analítica de big data y adquirir nuevas tecnologías para apoyar el proceso de análisis puede ser muy emocionante. Pero no se ilusione falsamente con la idea de que el éxito del proyecto depende exclusivamente de las herramientas. La verdadera clave del éxito está en asegurarse de que su organización cuenta con las capacidades necesarias para administrar de forma efectiva grandes y diversificados conjuntos de datos , así como la analítica necesaria para derivar valor de negocio de la información disponible.

ACERCA DEL AUTOR.
Rick Sherman es el fundador de Athena IT Solutions, firma que proporciona servicios de consultoría, formación y venta en las áreas de inteligencia empresarial, integración y almacenamiento de datos. Sherman es autor de más de 100 artículos y ha dado conferencias en docenas de eventos y webinars; es también profesor adjunto en la Escuela de Ingeniería de la Universidad de Northwestern. Sherman mantiene un blog en The Data Doghouse y se le puede escribir a rsherman@athena-solutions.com.

Profundice más

Inicie la conversación

Envíenme notificaciones cuando otros miembros comenten sobre este artículo.

Por favor cree un Nombre de usuario para poder comentar.

- ANUNCIOS POR GOOGLE

Close