Evaluar Conozca los pros y contras de las tecnologías, productos y proyectos que está considerando.

Cableado: Elemento clave para el centro de datos del futuro

La infraestructura pasiva del centro de datos a menudo es un área un poco desatendida, pero es la base de su crecimiento y desempeño.

Uno de los principales elementos en la construcción de un centro de datos es la infraestructura pasiva,  que con frecuencia es una de las áreas más desatendidas. Vista por muchos como “solo cables”, esta parte de la infraestructura no puede ser ignorada pues resulta absolutamente crítica para que todo esté conectado y trabaje bien en conjunto.

La llegada de la virtualización, por ejemplo, ha significado el envío de más y más datos a través de las redes sobre conexiones individuales de cableado, a velocidades mucho más altas. En el pasado, no había tanta propagación de datos a través de sistemas independientes y medios en el data center (DC), pero ahora cada enlace de cableado necesita estar listo para responder a la gran demanda de ancho de banda que tendría que soportar en un ambiente altamente virtualizado.

La ventaja de la virtualización para el propietario del DC es que le permite tener una red única que será de fácil mantenimiento y operación, con interoperabilidad mejorada y un costo-eficiencia incrementado. Sin embargo, también aumenta el riesgo de cuellos de botella si la infraestructura de cableado no ha sido diseñada adecuadamente desde el principio.

También la nube y big data impulsan el crecimiento de la transmisión de datos y a su vez generan una enorme presión sobre la capa física. Se estima que todos los productos de la capa física planeados (o diseñados) en la actualidad pueden soportar muchas generaciones de redes en el futuro. Como mínimo, existe una necesidad de planear una infraestructura de cableado del DC para perdurar por 10 años o más, soportando diversas generaciones de cambios en la tecnología activa.

Un buen ejemplo de esto es el reciente movimiento desde las arquitecturas tradicionales de centros de datos “Tier 3” a diseños más horizontales Tier 2 tipo “Fat Tree”, habilitados por switches Leaf y Spine.

Debido a que los usuarios son cada vez más menos tolerantes a la latencia –la cual puede darse en arquitecturas con muchos switches y que, por lo tanto, deben “tomar muchas decisiones” sobre los enrutamientos que los datos deben tomar a través del DC– los fabricantes líderes están lanzando nuevos switches y promocionando arquitecturas que bajan la latencia a través de, por ejemplo, los diseños Fat Tree. El resultado de moverse de Tier 3 a Tier 2 es que todo el cableado usado para interconectar los switches tendrá que manejar enormes cantidades de datos, y la agregación de datos será mucho más cerca al servidor, disminuyendo la jerarquía de switching.

Los switches tipo Leaf y Spine actualmente en el mercado están siendo vendidos con un mínimo de puertos Ethernet de 10 Gigabits para la conexión a los servidores, aunque la interconexión entre los mismos switches tipo probablemente correrá a Ethernet de 40 Gigabits, con proveedores que ya ofrecen plataformas de Ethernet de 100 Gigabits. Esto es ventajoso, ya que la velocidad de I/O (Entrada/Salida) del servidor también se está incrementando a un índice más rápido. Las investigaciones más recientes de IDC, Dell’Oro, Crehan e Intel revelan que un gran porcentaje de servidores se comunicarán a Ethernet de 40 Gigabits en los próximos cinco años, y que dentro de los siguientes tres años los puertos de Ethernet de 100 Gigabits serán una realidad dominante dentro del DC.

El futuro de la fibra

Ahora, cada enlace de cableado necesita estar listo para responder a la gran demanda de ancho de banda que tendría que soportar en un ambiente altamente virtualizado.

Para lograr ese tipo de velocidades de transmisión, la fibra será el medio de transporte a elegir. En la actualidad, existe una opción de interfaz primaria para conectar plataformas de Ethernet de 40 y 100 Gigabits habilitadas sobre la fibra multimodo en el DC: el conector MPO. Ya que las señales ópticas multimodo son transmitidas a través de VCSEL (Láseres de Emisión Superficial de Cavidad Vertical) producidos en forma masiva, esta tecnología permite la transmisión óptica paralela de bajo costo a través de la capa física y es la clave para conectar arquitecturas Fat Tree de baja latencia.

Mientras que en 40 Gigabits Ethernet una interfaz multimodo MPO de 12 fibras se encuentra disponible en muchas plataformas activas, en 100 Gigabits Ethernet la única opción multimodo disponible en la actualidad es MPO de 24 fibras. Implementar una solución de cableado MPO de 24 fibras en el DC es extremadamente importante, no solo porque es una interfaz directa de la actual plataforma de 100 Gigabit Ethernet, sino que una única troncal de cableado de MPO 24 fibras puede ser usada para agregar canales de 3x40 Gigabits Ethernet o 12x10 Gigabits Ethernet.

En general, se puede lograr un ahorro hasta de un 52% de espacio en las trayectorias de cableado al seleccionar un sistema de troncal de MPO de 24 fibras, sobre su equivalente de MPO de 12 fibras. Del mismo modo, en términos de eficiencia energética, el cuidadoso diseño e implementación de la infraestructura física puede tener un impacto positivo, particularmente debido a la consideración de cómo el flujo de aire es gestionado alrededor del centro de datos.

Pérdida óptica

Otro aspecto importante de la capa física que impacta la eficiencia de red dentro del DC es la pérdida óptica. En redes heredadas corriendo a velocidades inferiores a 10 Gigabits Ethernet, el presupuesto óptico (la cantidad de luz para soportar la transmisión entre dos puertos) es extremadamente generoso. Esto permite que componentes ópticos de muy pobre calidad puedan ser usados en una red, y el propietario/usuario no reconoce la degradación en el desempeño de la red.

Hoy, con DC ya implementando 40 Gigabits Ethernet y considerando los enlaces de 100 Gigabits Ethernet, las apuestas son mucho más altas y el presupuesto de pérdida óptica ha disminuido dramáticamente. La cantidad de presupuesto óptico ahora permitida por el IEEE en un canal de 40 o 100 Gigabits Ethernet es hasta un 42% menos que el que era permitido a 10 Gigabits Ethernet, y hasta un 57% menos que a 1 Gigabit Ethernet.

Usar conectividad de fibra pobremente elaborada o fabricada podría causar el reenvío inoportuno de paquetes a través de la red cuando se instalen tarjetas más rápidas. Esto a su vez trae consigo el temido factor de latencia que todos los usuarios y operadores tratan de evitar.

Así pues, el DC del mañana dependerá de cada aspecto de la red, incluyendo aquellas olvidadas bases de cableado, para funcionar a un nivel óptimo, mientras ocupan la mínima cantidad del valioso espacio. Las Capas 2 y superior ya han alcanzado enormes eficiencias, pero los administradores y propietarios de los DC necesitan dar una mirada más de cerca a cómo pueden usar la capa física para soportar el crecimiento en el futuro, o inversamente, ver cómo la capa física de cableado puede impedir dicho crecimiento.

El reto que enfrenta ahora la industria del centro de datos es mantener los altos niveles de disponibilidad, mientras ofrece respuestas más agiles a los cambios rápidos en empresas, aplicaciones y demandas de usuarios. Los principales generadores de la agilidad, disponibilidad y eficiencia del DC solo se pueden lograr utilizando soluciones de infraestructura de la capa física que están diseñadas desde el principio con esos tres objetivos en mente.

Acerca del autor: Alastair Waite es líder en centros de datos en Europa para TE Connectivity.

Profundice más

Inicie la conversación

Envíenme notificaciones cuando otros miembros comenten sobre este artículo.

Por favor cree un Nombre de usuario para poder comentar.

- ANUNCIOS POR GOOGLE

Close