BACKGROUND IMAGE: iSTOCK/GETTY IMAGES

Este contenido es parte de Guía Esencial: Novedades de Oracle y consejos para sus usuarios
Evaluar Conozca los pros y contras de las tecnologías, productos y proyectos que está considerando.

Big data ayudará a aprovechar los datos para los negocios en 2016, dice Oracle

De acuerdo con Oracle, este año mejorará el entendimiento de los datos por las empresas, lo que permitirá nuevas oportunidades para los negocios.

Las grandes y pequeñas empresas están encontrando nuevas maneras de captar y utilizar más datos, y por ello, Oracle estima que el impulso a los proyectos de big data se fortalecerá durante 2016, y que los modelos de “hágalo usted mismo” darán paso al uso de soluciones más establecidas. Otras predicciones del fabricante en esta área incluyen:

Los datos civiles operan cada vez más como los datos científicos. Aunque las estadísticas complejas aún están limitadas a los datos científicos, la toma de decisiones basada en datos no debería estarlo. En 2016, las herramientas más simples de descubrimiento de grandes datos permitirán a los analistas de negocios comprar conjuntos de datos en clusters Hadoop empresariales, darles forma en nuevas combinaciones de Mashup, y analizarlos con técnicas de aprendizaje automático exploratorias. Extender este tipo de exploración a un público más amplio mejorará el acceso a grandes volúmenes de datos y proporcionará hipótesis más ricas y experimentos que conduzcan al siguiente nivel de innovación.

Los laboratorios de datos experimentales despegan. Con más hipótesis para investigar, los científicos de datos profesionales verán una creciente demanda de sus habilidades por empresas establecidas. Por ejemplo, los bancos, las aseguradoras y las empresas de calificación crediticia se volverán hacia los algoritmos para fijar el precio del riesgo y evitar el fraude con mayor eficacia. Pero muchas de esas decisiones son difíciles de migrar de juicios inteligentes a reglas claras. Se espera una proliferación de experiencias de riesgo de falta de pago, suscripción de políticas y detección de fraudes, ya que las empresas tratan de identificar puntos de acceso para tener la ventaja algorítmica más rápido que la competencia.

El “hacerlo usted mismo” da paso a las soluciones. Los primeros en adoptar big data no tenían más opción que construir sus propios clusters y ambientes de big data; pero construir, administrar y mantener estos sistemas únicos construidos sobre Hadoop, Spark y otras tecnologías emergentes es costoso y requiere mucho tiempo. De hecho, el tiempo promedio de construcción es de seis meses. En 2016, esto dará paso a tecnologías maduras y que serán más dominantes gracias a servicios en la nube y dispositivos con automatización y normalización preconfigurados.

La virtualización de datos se convierte en realidad. Las empresas no solo captan una mayor variedad de datos, los usan en una mayor variedad de algoritmos, análisis y aplicaciones. Pero los desarrolladores y analistas no deberían tener que saber qué datos están en un lugar o quedarse bloqueados con solo los métodos de acceso que ese repositorio soporta. Durante 2016, se buscará un cambio de enfoque usando una única tecnología –como NoSQL, Hadoop, relacional, espacial o gráfica– para aumentar la confianza en la virtualización de datos. Los usuarios y las aplicaciones se conectan a los datos virtualizados, a través de lenguajes SQL, REST y de programación. El éxito de la tecnología de virtualización de datos ofrecerá un rendimiento igual al de los métodos nativos, así como compatibilidad y seguridad completas.

La programación de flujo de datos abre las compuertas a nuevas oportunidades. Las olas iniciales de  adopción de big data se concentraron en el procesamiento de datos codificados a mano. Las nuevas herramientas de gestión deberán desacoplar y aislar las tecnologías de big data a partir de las necesidades de procesamiento de datos de mayor nivel. También veremos la aparición de la programación de flujo de datos, que aprovecha el paralelismo extremo, proporciona una simple reutilización de los operadores funcionales y da soporte conectable para funciones de aprendizaje de estadística y de máquina.

Big data ofrece a la IA algo en que pensar. 2016 será el año en que se apliquen tecnologías de inteligencia artificial (AI) como aprendizaje automático (Machine Learning o ML), procesamiento del lenguaje natural (Natural Language Processing o PLN) y gráficos de propiedad (Property Graphs o PG) a los desafíos de procesamiento de datos comunes. Mientras ML, PLN y PG ya han sido accesibles como bibliotecas API de big data, el nuevo cambio incluirá amplias aplicaciones de estas tecnologías en herramientas de TI que soportan aplicaciones, análisis en tiempo real y datos científicos.

Los pantanos de datos tratan la procedencia para aclarar las cosas. El linaje de datos solía ser una capacidad deseable porque gran parte de los datos que alimentan tableros corporativos provenía de almacenes de datos confiables. Pero, en la era de los grandes datos, el linaje de datos es un deber, porque los clientes están fusionando datos de la empresa con conjuntos de datos de terceros. Algunas de estas nuevas combinaciones incorporarán alta calidad en datos de proveedores verificados, pero otros utilizarán datos que no son oficialmente perfectos, pero lo suficientemente buenos para el desarrollo de prototipos. Cuando los resultados sorprendentemente valiosos provengan de estas exploraciones oportunistas, los gerentes observarán el linaje para saber la cantidad de trabajo que se requiere para elevarlo a niveles de calidad de producción.

IoT + nube = aplicación revolucionaria de big data. Los servicios de big data en la nube son la magia detrás de los bastidores del internet de las cosas (IoT). La ampliación de los servicios en la nube no solo capta los datos de los sensores, sino también los alimenta en el análisis de big data y algoritmos para hacer uso de ellos. Los servicios de alta seguridad en la nube del IoT también ayudarán a los fabricantes a crear nuevos productos que actúen de forma segura sobre los datos analizados sin intervención humana.

La política de datos impulsa la nube híbrida. Saber de dónde provienen los datos –no solo desde qué sensor o sistema, sino desde qué nación– hará que sea más fácil para los gobiernos hacer cumplir las políticas nacionales de datos. Las corporaciones multinacionales en movimiento hacia la nube estarán atrapadas entre intereses en conflicto. Cada vez más, las compañías globales se moverán hacia implementaciones de nube híbrida, con máquinas en los centros de datos regionales que actúan como un centro local de un servicio en la nube más grande, lo que aprovecha tanto la reducción de costos, como el cumplimiento normativo.

Los nuevos sistemas de clasificación de seguridad equilibran la seguridad con el acceso. El aumento de la conciencia del consumidor sobre la forma cómo los datos se pueden recolectar, compartir, almacenar y robar, amplificará las solicitudes de protecciones reglamentarias de información personal. Se espera ver a los políticos, académicos y columnistas lidiando con los límites y la ética, en tanto las empresas aumentarán el uso de sistemas de clasificación que categoricen los documentos y datos en grupos con políticas predefinidas para el acceso, la redacción y el enmascaramiento. La amenaza constante de los hackers informáticos cada vez más sofisticados incitará a las empresas tanto a reforzar la seguridad, como a auditar el acceso y el uso de los datos.

Próximos pasos

No olvide revisar también:

Retos y desafíos de big data para América Latina

¿Hacia dónde van la analítica y big data en las empresas?

Diez pronósticos de tecnología empresarial que moldearán 2016

Inicie la conversación

Envíenme notificaciones cuando otros miembros comenten sobre este artículo.

Por favor cree un Nombre de usuario para poder comentar.

- ANUNCIOS POR GOOGLE

Close