.shock - Fotolia

Evaluar Conozca los pros y contras de las tecnologías, productos y proyectos que está considerando.

El caso contra la consolidación del centro de datos

Tener un centro de datos centralizado puede traer beneficios de TI. Los casos de uso como IoT, computación perimetral y nube no necesariamente funcionan con una infraestructura consolidada.

La consolidación del centro de datos ha sido un factor clave en el crecimiento y la gestión del centro de datos. La capacidad de usar y compartir hasta el 100 % de cada servidor ha ayudado a contener los crecientes costos de hardware, energía, refrigeración y espacio físico del centro de datos.

El péndulo hacia la consolidación solo puede oscilar hasta cierto punto. Hay valor, pero hay algunas circunstancias en las que una empresa puede querer repensar la consolidación y considerar los beneficios que solo más hardware puede brindar.

Colocar recursos y servicios fuera del centro de datos principal es una respuesta legítima a situaciones en las que las limitaciones, la escala y la redundancia de la red son vitales para la organización. Es importante considerar cada situación y sus alternativas individualmente y tomar las decisiones que sean más apropiadas para el negocio.

El atractivo y los desafíos de la consolidación

El advenimiento de la virtualización de servidores, junto con el software de hipervisor, ofrece conjuntos de comandos de procesador ampliados para abstraer aplicaciones del hardware informático subyacente.

La traducción de los recursos informáticos físicos en equivalentes lógicos hizo posible que las cargas de trabajo usaran más recursos disponibles que nunca y compartieran esos recursos de formas que nunca fueron posibles mediante la instalación de una aplicación en una computadora bare-metal.

Desde la introducción de la consolidación de servidores, la virtualización ha evolucionado para expandir y respaldar la consolidación de otros recursos, incluidos los elementos de red y E/S, y ha permitido compartir aún más la capacidad finita del centro de datos.

A medida que la virtualización y la consolidación reducen un centro de datos corporativo, las empresas pueden darse cuenta de que la consolidación no siempre puede perseguirse como un objetivo singular.

La consolidación se ha convertido en un beneficio indispensable para algunas organizaciones, pero la consolidación del centro de datos eventualmente se enfrenta a las siguientes duras realidades de límites físicos:

Existen límites físicos dentro de los servidores. Hay una cantidad finita de ciclos de memoria y CPU para compartir en toda la infraestructura. La virtualización hace posible compartir esos recursos limitados hasta cierto punto, pero no sin el riesgo de degradación del rendimiento en las máquinas virtuales.

Existen límites físicos a través de las redes. Los administradores pueden compartir el ancho de banda disponible, pero el ancho de banda total de la red es finito. El intercambio de datos a través de distancias globales dentro de plazos aceptables exige un ancho de banda amplio e introduce la limitación física indeseable de la latencia.

Existen límites físicos en la confiabilidad operativa. Los servidores, el almacenamiento y los equipos de red fallan eventualmente. Las consecuencias pueden afectar sectores vitales de la infraestructura del centro de datos y todas las máquinas virtuales del sistema. En las implementaciones de servidores físicos tradicionales, una falla del servidor afecta solo a la aplicación alojada. En un servidor consolidado que ejecuta ocho o 10 máquinas virtuales, la misma falla del servidor afectaría a todas esas máquinas virtuales.

Casos de uso obstaculizados por la consolidación del centro de datos

Los líderes empresariales y de TI pueden presentar un argumento convincente contra la consolidación en varios casos de uso vitales que dependen de la resistencia, la distancia, la escala y el aislamiento de la infraestructura.

Resiliencia

La implementación de cargas de trabajo redundantes es una práctica común para impulsar el rendimiento de las cargas de trabajo. Esto multiplica efectivamente la capacidad de la aplicación para realizar un trabajo vital utilizando equilibradores de carga para canalizar el tráfico a través de instancias duplicadas. Aunque el número de instancias duplicadas aumenta la redundancia, es la elección de las ubicaciones de implementación (servidores físicos) lo que define la resistencia de la aplicación.

Si la estrategia de la empresa es aumentar el rendimiento de la carga de trabajo, las instancias duplicadas pueden potencialmente ubicarse en el mismo servidor consolidado. Sin embargo, esto generalmente se considera una práctica deficiente porque un error del sistema subyacente podría detener estas instancias de carga de trabajo adicionales.

Cuando el objetivo incluye la resiliencia de la aplicación, las mejores prácticas establecen que las organizaciones nunca deben ubicar instancias de VM duplicadas en la misma configuración de hardware. En cambio, cada instancia de carga de trabajo redundante debe ubicarse en un servidor diferente.

Una aplicación de misión crítica diseñada para la resiliencia requiere al menos dos servidores que están ligeramente cargados y configurados para emplear opciones de hipervisor de afinidad/antiafinidad para garantizar que las migraciones en vivo o los reinicios no ubiquen instancias inadvertidamente en el mismo hardware.

Un impulso similar contra la consolidación surge con las configuraciones de recuperación de desastres donde una instancia de carga de trabajo duplicada puede estar ubicada en un segundo servidor ubicado en un segundo sitio de centro de datos remoto o incluso en la nube pública.

Computación perimetral e IoT

Las organizaciones están adoptando un creciente torrente de datos vitales para tomar decisiones comerciales críticas, realizar investigaciones y operar instalaciones de misión crítica. Pero el almacenamiento y el procesamiento de datos plantean serios desafíos para un único centro de datos centralizado en términos de latencia de red, ancho de banda y confiabilidad.

Considere una instalación de fabricación. Es poco probable que una empresa construya su centro de datos dentro de una instalación de manufactura. Todos los datos de los sensores que produce la instalación, junto con algún nivel de señales de comando y control para administrar y operar la instalación, deben moverse a través de una WAN al centro de datos consolidado.

La latencia de la red introducida por las grandes distancias geográficas y el equipo de red en expansión puede hacer que el control en tiempo real sea problemático. Al mismo tiempo, las interrupciones imprevistas de la disponibilidad de la WAN, como la congestión de internet, pueden hacer que la recopilación y el control de datos centralizados sean inestables.

Un despliegue de algún nivel de recursos informáticos y de almacenamiento fuera del centro de datos principal y cerca de la instalación, ubicación o tarea real en cuestión puede aliviar potencialmente los desafíos de la dependencia de la red; esto se conoce normalmente como computación perimetral.

Big data y escala

Un centro de datos puede verse gravemente estresado por las demandas de grandes cargas de trabajo de procesamiento de datos. Tenga en cuenta que un proyecto de big data puede requerir la potencia informática de cientos o incluso miles de servidores para procesar terabytes, o incluso petabytes, de datos almacenados para procesar tareas que pueden requerir solo varias horas para completarse.

Ciertamente, es posible implementar racks de servidores físicos y desplegar una flota de VM dentro del centro de datos principal para manejar tareas tan exigentes. Los costos y la infraestructura subyacente para soportar una gran afluencia de servidores pueden ser una tarea enorme para todas las empresas, excepto para las más grandes, lo que es particularmente prohibitivo.

En lugar de realizar una inversión de capital a largo plazo en la construcción de un centro de datos principal para proyectos de big data, las organizaciones a menudo recurren a recursos informáticos y de almacenamiento alternativos, como la nube pública, como un gasto operativo a corto plazo. La tecnología proporciona escala sin una gran inversión de capital.

Nube privada e híbrida

El surgimiento de la computación en la nube no se limita a AWS, Azure y Google. Las organizaciones están adoptando nubes privadas como un reflejo de las necesidades comerciales cambiantes. Los nuevos servicios y las capacidades de autoservicio permiten a los empleados y socios comerciales utilizar aplicaciones y servicios como parte del modelo comercial de la organización, en lugar de esperar a que TI los implemente.

La introducción de nubes privadas e incluso híbridas plantea los mismos desafíos de escala que se encuentran en los casos de uso de big data. La mayoría de los centros de datos son implementaciones en vivo que dependen de la coherencia, la regularidad y el control de las operaciones diarias.

Es poco probable que una empresa reasigne esos recursos de producción a una infraestructura de nube privada, y es incluso menos probable que una empresa tenga el exceso de recursos informáticos y de almacenamiento disponibles para construir una nube privada escalable desde cero.

Una opción es realizar la inversión de capital en infraestructura adicional de nube privada, pero existen alternativas a este enfoque. Una empresa puede contratar varios servicios de nube privada fuera del centro de datos principal.

Los proveedores de nube pública pueden ofrecer servicios de nube privada virtual. Por ejemplo, una empresa puede utilizar servicios como Amazon o Google Virtual Private Cloud. Más allá de los principales proveedores de nube pública, una organización también puede implementar la nube privada como un servicio de proveedores externos como VMware, Cisco e IBM.

Investigue más sobre Gestión del centro de datos

Inicie la conversación

Envíenme notificaciones cuando otros miembros comenten sobre este artículo.

Por favor cree un Nombre de usuario para poder comentar.

Close