Guía Esencial

Navegue en las secciones

BACKGROUND IMAGE: iSTOCK/GETTY IMAGES

Resolver Problemas Consiga ayuda para problemas específicos con sus proyectos, procesos y tecnologías.

Cómo evitar el desperdicio de la capacidad de almacenamiento en disco

El autor explica cómo la gestión del almacenamiento y otras tecnologías pueden ayudarle a aprovechar al máximo la capacidad del disco.

A finales de 2011, el Instituto de Gestión de Datos analizó los datos de una encuesta a más de 3.000 grandes, medianas y pequeñas empresas y determinó que, en promedio, las empresas estaban perdiendo hasta un 70% de su capacidad de almacenamiento en disco por almacenar datos que no necesitan ser retenidos en una cara infraestructura de disco. Aproximadamente el 40% de los datos era inerte, sobre la base de las bajas tasas de re-referencia y las tasas aún más bajas de modificación, y probablemente más adecuado para ser archivados. Otro 30% de la capacidad del disco alojaba datos huérfanos, datos de contrabando, o duplicados y basura que, con un poco de higiene de datos, podrían ser eliminados del almacenamiento.

¿Por qué, entonces, hay tan poca orientación para la creación de una estrategia de recuperación de almacenamiento –pasos para eliminar desde el disco los datos que no necesitan estar allí de modo que el enorme espacio consumido por los datos podría ser devuelto al uso productivo? Parte de la explicación puede ser que los vendedores prefieren que los consumidores se adhieran a lo que yo llamo el modelo de Doritos (¿Recuerdan el viejo eslogan: "Crunchea todo lo que quieras. Haremos más"?)

Sin embargo, la simple verdad es que la clasificación de datos podría estar fuera de la autoridad de estas empresas debido a las política corporativas; tal vez ellos no pueden especificar la cantidad de espacio que el mejor representante de ventas puede usar o cuánto tiempo puede dejar los archivos estacionados ahí. O puede ser que ellos creen que está más allá de su conjunto de habilidades. O puede ser que simplemente carecen de recursos –de personal, hardware, tiempo o presupuesto– para hacerlo.

En cualquier caso, para abordar el problema de la pérdida de la capacidad de almacenamiento en disco, es necesario tener al menos uno de los siguientes puntos:

  • Una estrategia para identificar los activos de datos que tienen bajas tasas de re-referencia (y que por lo tanto podrían trasladarse con seguridad o sin interrupciones del almacenamiento caro a uno más barato, de mayor capacidad).
  • Una estrategia para la migración de los activos de datos más antiguos a la capacidad de almacenamiento (o, en el caso de los duplicados y la basura, fuera de la infraestructura de almacenamiento por completo).

Creo que la elección se reduce a hacer un análisis granular de los activos de datos (la primera estrategia, que yo creo que es mucho más eficaz) o, como alternativa, el uso de metadatos sencillos para empujar los datos más antiguos, a los que menos se hace referencia con frecuencia, a medios de almacenamiento menos costosos.

Teniendo en cuenta las prohibiciones en muchas empresas con respecto a la eliminación de los datos, la segunda estrategia podría ser la más ventajosa para perseguir. Para migrar los activos de datos de menor frecuencia de acceso fuera del almacenamiento de producción y hacia la capacidad de almacenamiento de archivos en disco o para almacenamiento en cinta, preservando así la capacidad del disco caro en producción para el uso de nuevos y activos de datos, un enfoque es implementar la gestión de almacenamiento jerárquico (HSM) sencilla. Por lo general, numerosos proveedores ofrecen HSM como una funcionalidad de software, ya sea como parte de las grandes suites de software de gestión de almacenamiento o como una utilería de software independiente. IBM Tivoli Storage Manager y Hiarc HSM de EverStor son dos ejemplos del enfoque de componentes de una suite, mientras que FileStor-HSM de Crossroads Systems es un ejemplo de una excelente utilería. El uso de software independiente del hardware –en oposición a las características de HSM sobre el hardware, de valor agregado, que se entregan con algunos arreglos– se prefiere, con el fin de evitar los costosos encierros que limitan la elección de plataforma de archivado.

La mayoría de los productos de software le permiten definir políticas respecto a cuándo se deben mover los datos y a dónde se debe mover. Estas políticas generalmente son provocadas por cambios en los metadatos. Si los campos de metadatos Fecha del último acceso y/o Última fecha de modificación superan un límite establecido (es decir, 30, 60 o 90 días, por ejemplo), el archivo asociado con los metadatos se mueve automáticamente a su destino.

Con la llegada del sistema de archivos de cinta lineal (Linear Tape File System, LTFS) y los medios de cinta particionados (la cinta de IBM y Oracle y la versión 5 de LTO o superior), otra alternativa es escribir archivos tanto en el disco como en cinta utilizando LTFS. Entonces, cuando los datos de tasa de re-referencia caen por debajo de un límite establecido, simplemente se elimina la copia en el disco y se deja que los archivos continúen su vida archivados en cinta LTFS.

Estrategias como esta se enfocan en los datos que están consumiendo la capacidad y proporcionan los medios para aliviar la congestión de almacenamiento primaria sin borrar los datos. La gestión de almacenamiento jerárquico (HSM) es generalmente superior a las tecnologías de gestión de la capacidad táctica, como la compresión y la deduplicación, que a veces se utilizan para "exprimir" más capacidad de almacenamiento en la misma cantidad de campo de disco. Las razones por las que HSM es superior son que no altera materialmente los datos (una cuestión jurídica en relación con algunos tipos de datos), trabaja con todos los datos (la deduplicación ignora los datos cifrados o ya comprimidos), y no pone los datos en riesgo de pérdida debido a problemas con el software de compresión o deduplicación.

Mantener el almacenamiento de producción libre de los datos inertes y de contrabando también puede dar nueva vida a los procesos de protección de datos que van desde la creación de una imagen espejo y la replicación hasta el respaldo, ya que sólo los datos de producción estarán expuestos a esos servicios de protección de datos. Los datos que han sido trasladados a la capacidad de almacenamiento y que no cambian con frecuencia por lo general pueden ser replicados para su protección con menos frecuencia, y dicha replicación no impacta la carga de trabajo de producción.

Este artículo se actualizó por última vez en noviembre 2014

Inicie la conversación

Envíenme notificaciones cuando otros miembros comenten sobre este artículo.

Por favor cree un Nombre de usuario para poder comentar.

- ANUNCIOS POR GOOGLE

Close