Resolver Problemas Consiga ayuda para problemas específicos con sus proyectos, procesos y tecnologías.

¿Podemos bajar costos de infraestructura en centros de datos con nuevas herramientas analíticas?

Nuevas herramientas basadas en análisis de grandes volúmenes de datos podrían ahorrar dinero a empresas en infraestructura de centros de datos.

La aparición de nuevas tecnologías en infraestructuras de centros de datos, tales como la virtualización, la automatización y los equipos consolidados, ha hecho que los centros de datos pasen de ser sistemas monolíticos y estáticos para transformarse en centros computacionales diversos y dinámicos capaces de hacer análisis de "big data".

En respuesta, muchos vendedores han desarrollados paquetes de análisis de datos (piense en ellos como analítica de grandes volúmenes de datos para la informática)  que estudian varias configuraciones posibles y presentan a las corporaciones con las mejores opciones de diseño.

Desde que se convirtieron en el núcleo de la infraestructura computacional de una compañía, los centros de datos usualmente fueron tratados con tiento. Las corporaciones no querían causar ningún contratiempo o cortes de servicio, por lo que una vez estos caros palacios computacionales eran instalados, se les dejaba operar tal cual. En algunos casos eran actualizados cada varios años. En otros casos, los cambios se demoraban hasta incluso una década.

Los avances técnicos recientes han hecho que los centros de datos sean mas dinámicos.

"El número de usuarios, los tiempos de respuesta e incluso los diseños de las aplicaciones cambian diariamente, y a menudo de manera muy dramática", dijo John Stanley, analista de tecnologías de centros de datos en 451 Research, basada en New York.

Como resultado, se estima que del 50 al 75% de los centros de datos operan con configuraciones de sistemas obsoletas, según una encuesta hecha por IBM en el 2011.

Si bien los centros de datos deberían estar bajo revisión casi constante, muchas corporaciones han encontrado el monitoreo del rendimiento y la planificación de la capacidad bastante abrumadores.

Tradicionalmente, las empresas trataban de determinar si necesitaban servidores adicionales, o más capacidad de almacenamiento y de red, elaborando escenarios ficticios de "qué pasaría si" en hojas de cálculo. Pero la lista de opciones de diseños potenciales se ha hecho demasiado grande y compleja para poder aplicar ese acercamiento. Se necesitan nuevas herramientas, y los vendedores han empezado a presentarlas.

Como en otras áreas de informática, el rendimiento de los centros de datos ha sido influenciado por la mejora continua en las herramientas de análisis de datos. Estos productos recopilan montañas de información en bruto, diseñada para ayudar a las empresas a sacar conclusiones basadas en los datos. El análisis de datos es usado en varias industrias para permitir que las compañías y  las organizaciones puedan tomar mejores decisiones empresariales. Ahora se utiliza para ayudar a los supervisores de informática a determinar cómo configurar sus centros de datos.

Las nuevas herramientas de centros de datos solventan varios problemas.

"Un desafío en informática ha sido el poder visualizar rápidamente la salud de la infraestructura de los centros de datos", dijo Stanley.

Con el incremento dramático del número de equipos virtuales, sólo el poner todos los datos relevantes en una sola consola puede ser una tarea difícil.

Entender lo que está sucediendo en un centro de datos puede ser también un proceso tedioso. Por ejemplo, Tieto, que tiene 20.000 empleados, es un proveedor de servicios supervisados basado en Finlandia.

"Tenemos decenas de miles de servidores físicos y virtuales que constantemente están siendo reconfigurados" explica Geoffrey Ekman, especialista en tecnologías para la compañía. Los técnicos no tienen el tiempo de sumergirse de lleno en el rendimiento de varios elementos; necesitan soluciones que muestren rápida y claramente si las máquinas virtuales, los hosts o los clústeres tienen demasiados recursos, no los suficientes, o si están configurados de manera óptima.

Identificar el problema es sólo el primer paso en el proceso de planificación. El personal de informática necesita entender qué acción se debe tomar, determinando cuántos servidores son realmente necesarios versus cuántos están en uso, basándose en varias restricciones como la utilización actual, la política de la empresa y el crecimiento esperado. Las herramientas deben brindar acciones especificas que resuelvan y prevengan déficits para grupos de hosts y de recursos, para hosts, máquinas virtuales (VMs) y servidores de entrada y salida virtuales (VIOS), tales como el rebalanceo y los cambios de distribución.

Pueden hacer recomendaciones para redimensionar los hosts para que puedan aceptar nuevas cargas de trabajo. Las recomendaciones pueden ser aplicadas a gestión externa de tiquetes o a la orquestación de sistemas de gestión para automatizar procesos y cambios claves. Un gran número de vendedores ha desarrollado tales herramientas. Cirba ofrece la Cirba Control Console, que permite a las organizaciones informáticas optimizar su capacidad de decisión, la distribución de VMs y la distribución de recursos para entornos IBM PowerVM basados en AIX. El producto soporta prestaciones PowerVM avanzadas, tales como Particiones Lógicas (LPARs), VIOS, grupos de procesadores compartidos, Capacidad en Demanda y nodos en caso de fallo de alta disponibilidad (HA).

El Systems Workload Estimator de IBM brinda a las compañías una serie de recomendaciones para dimensionar sus CPUs, RAM e I/O. El software de escenario financiero de la herramienta deduce si las empresas necesitan construir, consolidar o mantener un status quo.

Analytica de Lumina es una herramienta visual para crear, analizar y comunicar modelos de decisión de capacidad. Su programa Intelligent Arrays puede modelar horarios inciertos para que las compañías tengan la capacidad correcta cuando nuevas aplicaciones aparezcan en línea.

El Compute Service Planner, de Ravello, depende de un modelo SaaS para dar a las compañías la información de configuración del centro de datos. El producto identifica qué servidores específicos en un grupo deben ser removidos y cuántos nuevos servidores deben ser  añadidos para poder minimizar el número de licencias de software requeridas para el grupo entero.

El módulo vCapacity de Reflex Systems integra un número de funciones para la gestión de monitoreo, rendimiento, capacidad y configuración. Proporciona visibilidad en tiempo real, correlación y control a lo largo de un entorno de nube virtual o privado.

La solución Data Center Performance Management de Sentilla proporciona  conocimiento granular sobre el rendimiento de centros de datos en áreas como los equipos físicos, los sistemas virtuales y las instalaciones del complejo. Depende de un acercamiento del tipo "supervisor de supervisores" para iluminar disponibilidad de  espacio, uso/consumo, demanda máxima y límites de carga en objetos como CPU, memoria, almacenamiento, red y electricidad.

El Capacity Analytics Engine de VKernel puede ser conectado a sistemas externos, como escritorios de apoyo, sistemas de tiquetes, aplicaciones de facturación, portales de autoservicios, cuadros de informes y consolas para gestión de sistemas. Más de 50.000 administradores de sistemas usan los productos de la compañía, incluyendo Tieto. Ekman dijo que la compañía había elegido el producto porque sus algoritmos brindan una imagen más clara de cómo los servidores de los proveedores de servicios gestionados operaban con respecto a servidores alternativos. Y añadió que, al identificar rápidamente los sistemas subutilizados, la herramienta se amortizaba en unos 12 meses.

El Veeam One de Veeam Software Inc. ofrece monitoreo desatendido en tiempo real de infraestructuras virtuales. Los tableros de alarma del producto brindan acceso a objetos y gráficos de rendimiento con un solo clic.

VMware Inc. tiene VMware vCenter Operations, que integra funciones de gestión de rendimiento, capacidad y configuración. Los tableros de rendimiento en tiempo real del producto ayudan a las compañías a cumplir con las directrices legales de los acuerdos de niveles de servicio, al ilustrar problemas de rendimiento actuales y potenciales.

Si bien son útiles, estas herramientas tienen sus lados negativos. Pueden ser caras; el precio empieza desde unos cuantos miles de dólares y fácilmente puede llegar a sobrepasar la marca de las seis cifras. Como cada centro de datos es único, las herramientas requieren bastante personalización. Además, los empleados deben emplear una gran cantidad de tiempo aprendiendo cómo maximizar el uso de estas herramientas.

Sin embargo, su uso se está esparciendo porque la planificación de los centros de datos se está volviendo bastante difícil de manejar. La aparición de nuevas herramientas para el análisis de datos promete ayudar a los supervisores de informática a simplificar el proceso y a asegurar las configuraciones de dimensión correctas; pero se podría necesitar tiempo y dinero antes de alcanzar esos resultados.

ABOUT THE AUTHOR: Paul Korzeniowski es un escritor independiente que se especializa en problemas de centros de datos. Está basado en Sudbury, Massachusetts, y puede contactarse aquí:  paulkorzen@aol.com.

Investigue más sobre Instalaciones de centro de datos

Inicie la conversación

Envíenme notificaciones cuando otros miembros comenten sobre este artículo.

Por favor cree un Nombre de usuario para poder comentar.

- ANUNCIOS POR GOOGLE

Close