Resolver Problemas Consiga ayuda para problemas específicos con sus proyectos, procesos y tecnologías.
Este artículo es parte de nuestra guía: Guía Esencial: Optimice su proceso de virtualización de TI

Dos formas para gestionar diferentes sistemas operativos de servidores

Varias herramientas y técnicas permiten a los administradores de sistemas de centros de datos trabajar con múltiples sistemas operativos de servidor en un sistema anfitrión, y gestionarlo de manera eficaz.

Correr más de un sistema operativo de servidor en un centro de datos permite a los usuarios trabajar con el sistema de su elección, pero también crea desafíos de gestión.

La configuración y el mantenimiento de diferentes sistemas pueden ser complejos y consumen mucho tiempo. Los administradores del sistema tienen acceso a una gran cantidad de herramientas de proveedores y de terceros que reducen esta carga.

El primer paso para soportar un centro de datos heterogéneo es configurar el servidor para soportar múltiples sistemas operativos. Los administradores pueden basarse en el secuestro de hardware, o en el enmascaramiento de idiosincrasias de bajo nivel con una capa de virtualización.

Amplíe las opciones de Inicio

El arranque dual es una técnica común para las empresas que ejecutan múltiples sistemas operativos de servidor. El administrador del sistema instala de forma independiente los diferentes ambientes en varios discos físicos o particiones de disco lógico. A continuación, el administrador del sistema selecciona el sistema operativo preferido de un menú que aparece al arrancar el sistema.

Para configurar un sistema de arranque múltiple, cree un área separada en el disco para cada entorno. Normalmente, esto implica la división de un único disco duro en varias particiones. Los discos duros de cada servidor tienen un Master Boot Record (MBR) que contiene una tabla de particiones, la cual especifica cómo separar el disco en zonas lógicamente distintas.

Cuando se inicia el sistema, el sistema de entrada/salida básico busca un dispositivo de arranque adecuado, lee el MBR del disco y ejecuta una pequeña cantidad de código. El código de inicio examina la tabla de particiones para determinar cuál es el activo, a continuación, carga la información –el sector de arranque de volumen– al principio de la partición y lo ejecuta, transfiriendo el control al cargador de OS.

Windows tiene capacidades integradas para la gestión de particiones de disco.

Productos de terceros, tales como EaseUs Partition Master, Partition Wizard de MiniTool, y el Asistente de Particiones de Aomei Technology automatizan el proceso. Por lo general, estos productos borran cualquier partición de Windows existente y luego crean nuevas particiones en sus tamaños especificados.

El segundo OS probablemente será una versión de Linux. Dos gestores de arranque, Linux LOader y Grand Unified Boot Loader, realizan una función similar a MBR.

Si una empresa ejecuta Unix, fabricantes como HP, IBM y Oracle incluyen funciones de particionamiento en sus líneas de productos de administración del sistema. Parted Magic LLC ofrece una herramienta del mismo nombre, Tenorshare vende Partition Manager, y hay otros disponibles.

Una vez que configure varias particiones en el disco duro, determine dónde almacenar los datos de la empresa. A menudo, los administradores quieren centralizar los datos en lugar de asociarlos con un sistema operativo. Para ello, creae una partición lógica adicional para los datos.

El tema de las particiones tiene desventajas. Entre más particiones creadas, más artículos hay que gestionar. Averiguar la cantidad de espacio para la partición puede ser un desafío conforme las aplicaciones fluctúan en sus requisitos del sistema. Se necesita tiempo para añadir espacio a las particiones después de que se crearon.

Anfitrión en una máquina virtual

Un enfoque diferente para alojar múltiples entornos en un servidor es ejecutarlos dentro de máquinas virtuales (VMs). Las máquinas virtuales permiten a las computadoras emular un entorno de hardware completo dentro de su software. Mientras se ejecuta un sistema operativo, el administrador puede disparar una máquina virtual como si se tratara de otra aplicación.

Las máquinas virtuales ejecutan múltiples sistemas operativos de lado a lado y al mismo tiempo. Debido a que cada máquina virtual tiene su propia dirección IP y conexión de red virtualizada, se crea una pequeña red de dispositivos de cómputo dentro de un servidor. Los administradores pueden realizar las mismas tareas en los servidores de los huéspedes como lo harían con un host, como ejecutar programas, compartir archivos y particionar el espacio en el disco.

Las desventajas incluyen la reducción de velocidad –una consecuencia de la emulación de hardware con el software– y el costo adicional del software VM –por lo general de Microsoft o VMware.

Actualizaciones del servidor

Una vez que una empresa configura servidores, las actualizaciones ocurren regularmente. Microsoft ofrece Windows Server Update Services (WSUS), el cual se instala automáticamente en los servidores de Windows. Las actualizaciones de seguridad pueden ser distribuidas y gestionadas a través de la consola administrativa. Los administradores de servidores también pueden obtener actualizaciones de Microsoft Windows Update, con descargas de actualizaciones automáticas de Microsoft. Pero alternativamente puede desactivar las actualizaciones automáticas y comprobar si hay actualizaciones periódicamente.

Los sistemas Unix incluyen una capacidad similar. Por ejemplo, el Administrador de Ops Center Oracle Enterprise reduce la complejidad de la actualización de un gran número de sistemas, estandariza el proceso de instalación de la actualización, minimiza el tiempo de inactividad y permite a un administrador elegir el nivel de automatización.

La actualización de Linux puede ser un reto, especialmente si el centro de datos utiliza múltiples distribuciones de Linux. Mientras que el sistema operativo está diseñado para ser coherente entre las distribuciones, existen matices. En consecuencia, el usuario es a menudo ligado a herramientas de actualización del proveedor de una distribución determinada.

Sobre el autor: Paul Korzeniowski es un escritor independiente que se especializa en temas de centros de datos. Ha escrito sobre tecnología desde hace dos décadas, vive en Sudbury, MA y puede ser contactado en paulkorzen@aol.com.

Este artículo se actualizó por última vez en septiembre 2015

Inicie la conversación

Envíenme notificaciones cuando otros miembros comenten sobre este artículo.

Por favor cree un Nombre de usuario para poder comentar.

- ANUNCIOS POR GOOGLE

Close