Sergey Nivens - Fotolia

Evaluar Conozca los pros y contras de las tecnologías, productos y proyectos que está considerando.

Analítica en streaming le permite revisar el pasado para ver el futuro

La idea de la analítica en streaming, donde los datos se analizan en tiempo real, es elegante en su simplicidad. Lograr esa simplicidad es cualquier cosa menos simple.

"Aquellos que no pueden recordar el pasado están condenados a repetirlo". Aunque escrito hace más de un siglo por el ensayista y filósofo español George Santayana, el aforismo se ajusta apropiadamente a la tecnología actual de rápida evolución de la analítica en streaming basada ​​en la nube.

Piense en la analítica en streaming basada ​​en la nube como dividida en cuatro variedades: saber lo que ocurrió, comprender por qué sucedió, mirar hacia adelante a lo que podría suceder y, en última instancia, determinar cómo influir en los sucesos futuros. Esos cuatro sabores de análisis –descriptivos, de diagnóstico, predictivos y prescriptivos, respectivamente– son cada vez más difíciles de implementar y utilizar, pero devuelven una gama de beneficios de negocio abundantes.

Para empezar con la analítica en streaming, es necesario decidir qué datos utilizar. Conforme los volúmenes de datos se multiplican, recogerlos, almacenarlos y filtrarlos se hace más difícil. En octubre pasado, IDC reiteró la investigación publicada anteriormente en la que predice que la cantidad de datos creados al año crecería de 4.4 zettabytes en todo el mundo en 2013, a la friolera de 44 zettabytes (44 billones de gigabytes) en 2020; una tasa de crecimiento anual asombrosa del 40%.

Hace solo unos pocos años, números de esta magnitud habrían sido incomprensible. Pocos conocían la palabra petabyte, y mucho menos zettabyte. Tenga en cuenta que saltamos sobre exabyte en el camino de petabyte a zettabyte. El yottabyte –que es un billón de terabytes– no puede estar muy lejos.

Considere un ejemplo de analítica en streaming: En Weather Underground, uno de los activos digitales de Weather Channel recientemente adquiridos por IBM, las lecturas del tiempo en los Estados Unidos se recogen cada 15 minutos a partir de más de 180 mil estaciones. Eso suma 100 GB de datos generados cada día, transmitidos y analizados en tiempo real.

Es probable que su organización no sea como Weather Underground. Para la mayoría, el porcentaje de datos recolectados que realmente se utiliza para analítica en streaming o periódica basada en la nube es sorprendentemente bajo. John Bates, director de producto de Adobe Analytics, estima que las tasas actuales de acceso a datos de los clientes de Adobe promedian menos del 2%. Mike O'Rourke, vicepresidente de IBM para análisis de negocios, cree que ni siquiera es tan alto para los clientes de su compañía. "En términos de los datos [que IBM está] extrayendo para los clientes y las cosas que están mirando... sin duda es menos del 1%".

¿Eso se debe a que estas organizaciones están lanzando una red muy amplia? ¿O están guardando los datos durante demasiado tiempo en lugar de agregarlos y purgarlos? ¿Es porque comprar continuamente más espacio de almacenamiento es el camino de menor resistencia? Depende. Si usted está haciendo el seguimiento de datos a partir de estudios sobre una enfermedad cardiovascular que se extienden por casi 70 años, mantener hasta el último byte es crucial. Sin embargo, los datos de ventas del día a día para los zapatos que su empresa vendió durante la locura del disco de la década de 1970, bueno, eso no es tan crucial. Qué datos ignora puede ser una de las decisiones más importantes que tomará.

Otro desafío es asegurar que los datos presentados para el análisis no se retrasen. Aunque Spark de Apache está ganando popularidad como un procesador de analítica, su motor subyacente separa en micro lotes los datos entrantes, lo que resulta en una alta latencia. Si usted está analizando el desempeño de los motores a reacción en vuelo o tratando de vencer a otros comerciantes de valores en un acuerdo, probablemente eso no es lo suficientemente bueno.

"Si no lo hace o no puede actuar sobre los datos de forma instantánea, el momento pasó, la ventana se cerró y el valor disminuye", dijo Mike Gualtieri, analista de Forrester Research. Apache Flink, tan nuevo que la mayoría no está familiarizada con él, es un verdadero motor de streaming con una latencia muy baja.

La analítica se extiende mucho más allá del ámbito de las transacciones de negocios o de los eventos de sensores del internet de las cosas. El Desafío de Analítica 2015 de la Universidad de Temple pidió a los participantes hacer frente a uno de tres temas de gran alcance, desde examinar si una vacuna contra el ébola puede cambiar la salud mundial, revisar la pregunta si la unión de la televisión y la tecnología digital puede aumentar las ventas, o un estudio de cuáles son las mejores audiencias para las instituciones culturales conforme sus clientes típicos envejecen y la venta de entradas va en declive. Las grandes corporaciones, incluyendo Campbell’s, Lockheed Martin, Merck, QVC y Walmart, se han registrado para ser miembros del Instituto de Negocios y Tecnología de la Información de Temple. Una de las ventajas de la membresía incluye la influencia sobre el desafío. Para 2015, ese beneficio fue sentido por Merck, que estuvo involucrado en la cuestión del ébola, y QVC, que suministró datos para el reto de la televisión y la tecnología digital.

Está claro que el campo de la analítica en streaming está creciendo, las tecnologías están evolucionando, las aplicaciones solo están limitadas por nuestra imaginación, la demanda por talento de analítica nunca ha sido más alta y las universidades se están reforzando para hacer frente a la escasez. ¿Qué podría ser más emocionante que eso?

Investigue más sobre Análisis de negocios e inteligencia de negocios

Inicie la conversación

Envíenme notificaciones cuando otros miembros comenten sobre este artículo.

Por favor cree un Nombre de usuario para poder comentar.

- ANUNCIOS POR GOOGLE

Close