Crónica / Reportaje

Protegiendo PetaBytes: Prácticas recomendadas para copiar grandes volúmenes de datos.

Uno de los problemas creados por la conservación de enormes volúmenes de datos (también llamados “big data”) en su entorno de almacenamiento es cómo proteger dichos datos.

Los almacenamientos de tamaño PetaByte pueden causar estragos en las ventanas de copia de seguridad, y los métodos de copia tradicionales no están preparados para gestionar millones de pequeños archivos. La buena noticia es que no todos los grandes datos tienen que ser copiados según el sistema tradicional.

Nick Kirsch es director de gestión de productos de EMC Isilon, una plataforma NAS escalable que dice ayudar a ser un poco más inteligente a la hora de realizar copias de seguridad de grandes datos. Kirsch aconseja que, antes de pensar en cómo proteger los datos, echemos un buen vistazo a ver qué datos necesitan protección. Los informes generados por ordenador, como por ejemplo el informe de una base de datos, puede ser reproducido mucho más rápido que si lo copiamos y lo restauramos.

Es posible que necesite un sistema secundario de almacenamiento, ancho de banda adicional y ventanas adecuadas para acomodar las copias de seguridad masivas y para proteger esos almacenamientos.

Compare el costo de proteger los datos con el de regenerarlos. Kirsch indica que, en muchos casos, los bancos de datos necesitan protección, pero que los procesos de obtención de datos pueden ser más económicos de reproducir que el coste que tendría proteger esos datos ya procesados.

Protección de datos

Para protegerse frente a errores del usuario o de la aplicación, Ashar Baig, analista sénior y consultor de Taneja Group, comenta que las instantáneas pueden ayudar con las copias de seguridad de grandes volúmenes de datos.

Baig también recomienda disponer de un sistema de discos locales para los problemas de recuperación sencillos en primer nivel: “Busque una solución que le permita disponer de copias locales de los datos para poder hacer restauraciones locales, que es algo mucho más rápido”. “Tener una copia local y una tecnología basada en imágenes, instantáneas y replicaciones acelera el proceso y resuelve los problemas de rendimiento.”

Si va adquirir nuevas herramientas de copia de seguridad para grandes datos, Baig sugiere tener en cuenta el equipamiento y software de nuestra copia de seguridad actual.

“Todo lo que se compra [relacionado con grandes datos] debe estar adaptado a la tecnología existente [en su sistema],”según Baig. “Este es el mundo real. La causa por la que los administradores vivimos y respiramos.”

Jeff Echols, director sénior de marketing de productos y soluciones para CommVault, distribuidor de software de copias de seguridad, afirma que los clientes de “grandes datos” están usando o probando sistemas de citas y proveedores en la nube para proteger sus datos fuera de sus instalaciones. Algunos mantienen los sistemas de cinta por el bajo coste de infraestructura, aunque suelen tener un papel de archivo más que de fuente de copia primaria.

Se necesitan escaneos más rápidos

Uno de los grandes problemas de copias de big data es el proceso de escaneo cada vez que las soluciones de copia y archivo se inician. Los sistemas de protección de datos heredados escanean el sistema de archivos cada vez que se ejecuta un trabajo de copia de seguridad, o cada vez que se está ejecutando una archivación. Para los sistemas que albergan grandes datos, esto puede llevar mucho tiempo.

“La forma en que las copias de seguridad se han hecho siempre es escanear todo el sistema de archivos cada vez que tienen que ejecutar una copia”, comenta Echols, de Commvault. “Eso si es una copia de seguridad completa. Si es una copia incremental, todavía es necesario un proceso de escaneo que hay que completar. El tiempo de ese escaneo es lo que “mata” toda la operación”.

La solución de Commvault para este problema está presente en el software de protección de datos Simpana, y se llama OnePass. Según Commvault, OnePass ofrece un proceso convergente a nivel de objetos para realizar copias, archivos y obtener informes. Los datos se recogen y se mueven fuera del sistema primario a un repositorio virtual donde se completan las operaciones de protección de datos.

Una vez que concluye el proceso de escaneo el software de Commvault coloca un agente en el sistema de archivos para informar sobre copias de seguridad incrementales, haciendo todo el proceso mucho más eficiente.

Echols también indica que ha conocido sistemas basados en técnicas de replicación o instantáneas por los clientes, aunque siempre llega un punto donde hay que extraer los datos del sistema primario. Es necesario archivar o borrar datos para reducir el nivel de carga y proteger la estructura de datos del sistema primario.

El grupo Research Computing and Cyber-infrastructure (RCC) de la universidad de Penn State ha encontrado otro sistema para acelerar el proceso de escaneo. El grupo ha instalado un sistema de almacenamiento sólido para escanear cientos de millones de archivos mucho más deprisa, según indica el administrador de sistemas de la PSU, Michael Fenn.

El RCC de PSU usa el sistema de IBM General Parallel File System (GPFS) conectado a un centro de almacenamiento Dell PowerVault MD2000. GPFS separa los datos de los metadatos y los asigna a diferentes LUNs.

Fenn afirma que escanear todos los archivos a la vez ralentiza el proceso de copia, de modo que ha movido las copias de seguridad de los metadatos a un sistema de almacenamiento flash RamSan-810, de Texas Memory Systems. Antes de hacerlo estaba sobre provisionando en torno a unas 200 unidades SAS de 15,000 RPM para poder copiar los metadatos durante la noche. Este proceso ha reducido el tiempo de ventana de copia, de 12 a 24 horas, a una ventana de unas 6 horas. Cambiar a un sistema de archivo flash reduce el proceso de copias a sólo una hora

El RCC se almacena en cintas usando Tivoli Storage Manager de IBM.

“[GPFS] tiene que estudiar los metadatos para ver dónde están los bloques de datos y comprueba cada archivo en el sistema de archivo para ver si ha sido modificado desde la última copia”, explica Fenn. “Nuestras copias de seguridad tardaban entre 12 y 24 horas debido al proceso de escaneo de todos estos archivos.”

Para eso dispone de una RamSan-810 que puede generar 150,000 IOPS. Ejecutar dos maquinas en pares redundantes incrementa el proceso a 300,000 IOPS. “Pasamos de unos 20.000 IOPS a 300,000 IOPS,” comenta Fenn. “Esto significa que el escaneo de los metadatos ya no será nunca más el factor de limitación en nuestros procesos de copias de seguridad”.

Fenn comenta que el RCC copia unos 150 millones de archivos de usuario, que es un porcentaje pequeño del total de archivos generados por las máquinas o por los usuarios.

“Hay muchos archivos para escanear”, dice. “Algunos datos pueden ser regenerados. Los usuarios saben que el sistema de archivos va a ser copiado, pero no otros sistemas. Tenemos en torno a dos millones de archivos en un sistema que nunca copiamos. Cuando la gente pone sus archivos en esta zona sabe que podrían perderlos.”

Fenn también asigna cuotas de copia de seguridad a los diferentes sistemas de archivos, de modo que “la gente tiene que pensar realmente en que lo que necesita guardar.”

El Casino no quiere jugársela con las copias de seguridad

El Pechanga Resort & Casino de Temecula, California, instaló un clúster con 50 nodos EMC Isilon X200 en febrero para realizar copias de seguridad de los datos de sus cámaras de vigilancia. El casino dispone de 1.4 PB de almacenamiento Isilon disponible para guardar datos, lo que es crítico para sus operaciones, porque el casino debe detener todas las operaciones de juego si el sistema de vigilancia falla.

“En el juego estamos obligados a tener cobertura de vigilancia,” afirma Michael Grimsley, director de sistemas de Pechanga Technology Solutions Group. “Si la vigilancia falla, tenemos que detenerlo”.

Si ocurre un incidente de seguridad, el equipo de IT traslada las imágenes desde los nodos X200 a un almacenamiento WORM y lo copia usando software de NetWorker a un servidor de desduplicación EMC Data Domain DD860. El casino no necesita cintas para el almacenamiento WORM dado que forma parte del software Isilon SmartLock.

“Es obligatorio que esta sección del almacenamiento incluya una sección WORM” indica Grimslet. “Cada vez que ocurre un incidente, guardamos los datos en la caja fuerte. Tenemos implementadas políticas para que no sean borrados”.

De hecho, el casino guarda los videos grabados en Isilon durante 21 días antes de reutilizarlos.

Grimsley añade que quieren incrementar el sistema de copia de seguridad para sus cámaras de vigilancia. Para eso están pensando en añadir un dispositivo mayor de dominio de datos al sistema para las copias diarias. “No tenemos requisitos concretos para las copias diarias, pero está claro que hay que hacer algo al respecto,” apostilla.

Otra posibilidad es añadir replicación DR al sitio de manera que el casino pueda recuperar rápidamente el sistema de seguridad en caso de fallo

Sistemas escalables

Otra opción para resolver los problemas de rendimiento y capacidad es usar un sistema de almacenamiento escalable, similar a una NAS escalable, pero pensada para protección de datos. Basta añadir los nodos con la capacidad y el rendimiento necesarios a medida que crece la cantidad de datos protegidos.

“Cualquier arquitectura de copia de seguridad, especialmente en el mundo de los grandes datos, debe mantener un equilibrio adecuado entre capacidad y rendimiento”, comenta Jeff Tofano, director de tecnología de Sepaton Inc. “Todo lo demás no es una solución correcta para el cliente y seguramente sea más caro de lo que debería ser”.

La librería modular de cintas virtuales S2100-ES2 de Sepaton ha sido diseñada para entornos corporativos con grandes volúmenes de datos. Según la empresa, su procesador de 64-bit puede copiar hasta 43,2 Tb de datos por hora, sin importar el tipo de datos, y puede almacenar hasta 1,6 PB. Pueden añadirse hasta ocho nodos por clúster a medida que se necesita, así como estantes de discos para una mayor capacidad

La S2100-DS3 ha sido diseñada para ofrecer servicios de replicación y protección de datos en sucursales, incluyendo la posibilidad de volver a disponer del sistema de empresa o realizar recuperaciones frente a desastres (DR). También ofrece un rendimiento de 5.4 TB por hora y otros servicios como copias remotas, desduplicación y restauración de la función de gestión.

Ambos sistemas de Sepaton incluyen también la tecnología Secure Erasure para realizar la destrucción auditada de cartuchos VTL cuando sea preciso liberar espacio de datos una vez que expira la necesidad de retención de datos.

La protección de entornos de grandes datos requiere de nuevas ideas sobre cómo usar las herramientas viejas, y la consideración de nuevas tecnologías para poder gestionar el aumento del volumen de datos. Encontrar formas de reducir la cantidad de datos a proteger y escalar el entorno de protección son algunas de las claves que garantizan que los datos críticos estén seguros frente a fallos sencillos o catastróficos del sistema.

 

(El director de noticias, Dave Raffo, colaboró en este artículo.)


Esto fue publicado por primera vez en noviembre 2012

Unirse a la conversación Comenta

Compartir
Comentas

    Resultados

    Contribuye a la conversacion

    Todos los campos son obligatorios. Los comentarios aparecerán en la parte inferior del artículo