Symantec aborda el almacenamiento de Hadoop, y hace un análisis de "big data"

Noticias

Symantec aborda el almacenamiento de Hadoop, y hace un análisis de "big data"

Sonia Lelii, Contribuidora

Symantec Corp. anunció hoy un complemento de capacidad de Hadoop Apache para su sistema de archivos Veritas Cluster Server y asi ayudar a ejecutar "grandes datos" de análisis de las redes de área de almacenamiento en lugar de escalar y servidores de las materias primas que utilizan almacenamiento local.

Symantec ha escrito un conector de Hadoop para la plataforma de datos Hortonworks que se encuentra en la parte superior de Veritas CFS y se sienta en una SAN. El objetivo es dar los datos utilizados en Hadoop y las características de la empresa de análisis tales como la alta disponibilidad, las instantáneas, de duplicación y la compresión.

Por lo general, el almacenamiento de Hadoop se compone de nodos distribuidos y procesamiento de escalada, ya que el Sistema de archivos distribuido Hadoop (HDFS) se vuelve cada nodo en un sistema de archivos más grande. Symantec Hadoop Connector es una capa de software que se encuentra entre el sistema de archivos del clúster y la pila Hortonworks Hadoop HDFS así se puede ejecutar en almacenamiento en red en lugar de almacenamiento de conexión directa. Esto permite una SAN para que funcione como almacenamiento Hadoop.

"¿Por qué construir un servidor totalmente nuevo cuando se puede usar perfectamente un buen SAN?" dijo Dan Lamorena, director de marketing de producto de almacenamiento de Symantec y el Grupo de Gestión de la Disponibilidad. "Nosotros decimos:" Que los datos residen donde están y ejecutan análisis allí. ¿Por qué crear un nuevo entorno de DAS? "

Symantec define datos grandes como los registros de clientes grandes que requieren análisis pesados en lugar de archivos de gran tamaño utilizados por los medios de comunicación, el entretenimiento y la genómica. El conector de Hadoop se puede descargar de forma gratuita por los clientes del CSA, dijo Lamorena.

Muchos de los datos que se ejecutan en Veritas CFS se almacenan en una SAN y es el tipo de datos que los clientes quieren utilizar para el análisis de datos, dijo Mike Matchett, analista y consultor en Hopkinton, Massachusetts. Taneja Group Inc.

"HDFS está diseñado para trabajar a través de DAS", dijo Matchett. "Pero HDFS no protege los datos muy bien. Es difícil de copiar. Usted no puede tomar fotos de ella, y es difícil de replicar en una WAN. Hadoop no suele tener una alta disponibilidad y es difícil acceder a datos de HDFS. "El conector de Symantec y los clientes del CFS "todavía pueden ejecutar el cluster Hadoop y en lugar de utilizar HDFS en cada nodo, señala Hadoop para el sistema de archivos Veritas Cluster Server, se ejecuta en una SAN", dijo.

Matchett dijo que podría haber una compensación de rendimiento cuando se utiliza un SAN frente a la distribución de procesamiento para ejecutar Hadoop. El rendimiento de datos en el CFS Veritas puede ser mejor o peor dependiendo del algoritmo utilizado. "Algunos algoritmos mejoran el rendimiento cuando se ejecutan sobre almacenamiento local", dijo.


Unirse a la conversación Comenta

Compartir
Comentas

    Resultados

    Contribuye a la conversacion

    Todos los campos son obligatorios. Los comentarios aparecerán en la parte inferior del artículo