Con 'big data', dos papeles principales deben compartir el escenario

Noticias

Con 'big data', dos papeles principales deben compartir el escenario

Nicole Laskowski, Editor de Noticias

Mercutio llega al escenario en el clásico de William Shakespeare: Romeo y Julieta, con energías tornadas. Durante su primera escena, Romeo se va de cabeza a cabeza con melancolía, utilizando chistes, juegos de palabras y un famoso discurso sobre la reina Mab para alcanzar lo inalcanzable: persuadir a Romeo a dejar de lado la tristeza y la fiesta en su lugar. Mercutio es exitoso, y su éxito ayuda a establecer el juego en movimiento.

El término "grandes datos" ha seguido los pasos de Mercutio: Barrió a lo analítico del negocio inteligente (BI) y de escena con una fuerza significativa y frenética de energía, por lo general acompañado por su pegadizo "tres V" (volumen, velocidad y variedad). Ha sido adoptado de manera que casi todos los expertos están de acuerdo, es raro, y con ella vinieron nuevas tecnologías y técnicas, e incluso modelos de negocio.

Algunos de los mismos expertos que reconocen el asunto de la industria con grandes volúmenes de datos también dicen que la acumulación excesiva y la promoción han dado lugar a un pensamiento defectuoso. Los datos, por ejemplo, siempre han sido "grandes" y siempre lo serán, dicen. Big data es comúnmente considerado como un problema de gestión de datos, dicen, y es lo que se hace con los datos - los análisis - que realmente importa.

Colin White, fundador y presidente de la consultora Investigaciones Ashland, Oregon con sede en BI, y Fryman Harriet, director de software de Business Analytics de IBM, con el fin de abordar el pensamiento incompleto durante su presentación en la 11 ª edición del mes pasado en la Cumbre del Noroeste del Pacífico BI.

"Ese es el problema: Todos los casos de uso que presentamos son los eBays y los Yahoos y los petabytes y toda la Vs Pero, para mí, eso es un pequeño porcentaje [de casos de uso]", dijo White. "El mensaje clave es que no se trata sólo de volumen".

Los primeros debates sobre grandes volúmenes de datos se centraron en cuestiones de gestión de datos. El enfoque más tradicional de flujo de datos es un almacén de datos empresariales (EDW) que tuvo problemas para mantenerse al día con la demanda, dijo White. Algunos analistas sugieren que los datos grandes con el tiempo darán lugar a la desaparición de la EDW, pero los asistentes a la Cumbre tienden a adoptar una actitud más conservadora.

Las tecnologías que mejor pueden abordar algunos de los desafíos de datos grandes son las analíticas de bases de datos relacionales, bases de datos no relacionales como Hadoop y streaming de sistemas de proceso –y estas se sentarán al lado y trabajaran con el EDW, según White. "La gente quiere guardar más datos durante más tiempo, pero no pueden permitirse el lujo de hacerlo", dijo.

"Uno de los mayores casos de uso de grandes volúmenes de datos es el centro de datos". En estos casos, las empresas que desean tener acceso a alrededor de 10 años de datos detallados se dividirán entre una EDW que almacene los datos más recientes, y una segunda plataforma, tal como Hadoop, que pueda almacenar datos más antiguos a un muy buen precio, según White. Los debates de datos grandes, sin embargo, a veces no van más allá de la gestión de datos ni más allá del volumen, White dijo, y ellos necesitan datos grandes que no se definan únicamente por la cantidad de datos que se gestionan, sino que también se traten de las ideas que las empresas pueden espigar. "Son los temas analíticos los que debemos abordar, más que los problemas de gestión", dijo. "Es lo que haces con los datos que importan." Analisis es vital, Fryman de IBM está de acuerdo con esto, y al igual que la pieza de la gestión de datos, los datos grandes también están afectando a cómo las empresas se acercan al análisis. El movimiento de datos de un lugar a otro, por ejemplo, no es un modelo eficiente cuando una compañía está trabajando con grandes volúmenes de información o datos de streaming, dijo. "La forma en que reunimos la información cambia realmente cuando nos fijamos en los datos de muchas formas", añadió. El analista de negocios (la persona que sabe qué tipo de preguntas hacer de los datos) tendrá que tomar un papel más importante en el tratamiento de los mismos. Esto se debe a las preguntas sobre datos grandes que tienden a ser preguntas de negocio "y no estructurales o datos de estilo de gestión-preguntas", dijo Fryman. Las empresas también tendrán aplicaciones algorítmicas para ayudar a tamizar a través de los datos y distinguir entre lo que es relevante y lo que es prescindible. Estas aplicaciones se volverán aún más importantes que las herramientas de visualización, lo que se ha llamado la clave del análisis de datos grandes. Fryman, asintió con la cabeza durante la presentación de la Cumbre Blanca. Las tecnologías capaces de manejar diferentes tipos de datos más grandes, rápidos, y de ambientes densos y complejos podrían llegar a ser difíciles de visualizar, dijo. "Para un ser humano, decidir cosas, es tener que aplicar análisis algorítmicos para poder salir a la superficie del caso, lo más importante, la información interesante", dijo Fryman. "Cuando nos fijamos en el análisis de datos de los sensores o los datos sociales, yo diría que hay un volumen con mucho menos interés en ella o valor en él. Se trata de encontrar los patrones y eso es lo que es importante".

Manejo de data + análisis

La acoplacion, gestión de datos y análisis pueden ayudar a las empresas en huelga a tomar nuevas direcciones, de acuerdo con Fryman. Debido a que combinan los datos tradicionales con nuevas fuentes de datos para formular nuevas preguntas, que ponen de análisis en las manos de los nuevos usuarios para así descubrir nuevas oportunidades. "Aquí es donde los que estamos en Silicon Valley vemos un montón de nuevas empresas que, me gustaría plantear, no estarían en el negocio si no fuera por su capacidad para analizar grandes volúmenes de datos", dijo Fryman, señalando a Mountain View, California -SST basado Inc. como un ejemplo.

SST, una pequeña empresa fundada en 1995, se especializa en tecnología de detección de armas de fuego, que ha sido desplegado por los departamentos de policía y agencias gubernamentales. En esencia, el producto SST es un servicio de datos que depende de su capacidad para consumir y analizar los datos en tiempo real, la identificación de armas de fuego y haciendo sonar la alarma adecuada, Fryman explicó. "La información en sí misma es lo que esta [n] produciendo", dijo refiriéndose a este tipo de empresas en general. "No es un subproducto, que es un co-producto"

Pero el mal uso - o el uso excesivo - de los grandes volúmenes de datos a largo plazo se han convertido en un punto de fricción para la industria, los asistentes a la cumbre estuvieron de acuerdo. Y ensombrece el panorama: El quid de datos grandes no es algo nuevo, sino más bien, es algo que se ha extendido lo que las empresas están haciendo ya. Big data es parte de una evolución, dicen los expertos.

"Esto es importante: tenemos que perder esto que se trata de datos multi-estructurados y volumen", dijo White. "Muchas son capaces de mejorar lo que hacemos hoy".


Unirse a la conversación Comenta

Compartir
Comentas

    Resultados

    Contribuye a la conversacion

    Todos los campos son obligatorios. Los comentarios aparecerán en la parte inferior del artículo