WavebreakmediaMicro - Fotolia

Evaluar Conozca los pros y contras de las tecnologías, productos y proyectos que está considerando.

Expertos en centros de datos predicen las tendencias de TI para 2016

Todo lo definido por software, la seguridad, la IoT, las API y otras tecnologías están en la cima de las principales predicciones de nuestros expertos para las tendencias de centros de datos en 2016.

Los expertos de centros de datos pregonaron el año 2015 como el año del cambio, pero, ¿qué  tendencias de TI dominarán en 2016?

Las charlas sobre hiperconvergencia y la nube dominaron los titulares de 2015. Algunos grandes proveedores se hicieron más grandes, conforme Dell adquirió EMC y VMware, mientras que HP se dividió en dos. Las organizaciones de TI se apoyaron en sus equipos DevOps para ser más ágiles. La oleada de la Internet de las Cosas (IoT) en aplicaciones de consumo y de negocios también prometió grandes tensiones en los centros de datos.

Con 2016 empezando, los expertos de centros de datos de SearchDataCenter predijeron qué tendencias de TI se quedarán en 2016 para el futuro previsible.

Todo lo definido por software

El tren de todo lo definido por software continuará rodando en 2016, según los expertos. Ya sea almacenamiento (SDS), redes (SDN) o centros de datos definidos por software (SDDC), el consultor Jim O'Reilly considera 2016 como el año en que lo definido por software cambiará fundamentalmente los centros de datos.

"Hay un punto en el que el legado [la infraestructura] no puede sostenerse contra la economía, y estamos muy cerca e incluso más allá de él, de alguna manera", dijo O'Reilly. "El 2016 podría ser el punto de inflexión –SDS y SDN empujarán esta cuestión muy duro”.

El analista de la industria, Joe Clabby es un poco más mesurado en sus predicciones definidas por software. Él ve el almacenamiento como un área donde las empresas pueden ahorrar una cantidad significativa de dinero por correr el riesgo con un proveedor desconocido con una funcionalidad SDS decente.

“2016 será un año con un efecto nivelador de SDS”, dijo Clabby.

SDS permitirá que nuevos proveedores con nuevas funcionalidades compitan con jugadores establecidos –como EMC y NetApp– por las empresas.

No todo el mundo piensa que esta será la era definida por software, sino una era “asistida por hardware y definida por software", dijo Clive Longbottom de la firma analista Quocirca.

Incluso en una era definida por software, "todavía hay una oportunidad para la innovación de hardware" cuando se trata de la creación de redes, dijo O'Reilly. También señaló la influencia de los avances de hardware, con el disco de estado sólido sustituyendo las unidades de disco duro.

"La charla alrededor [de los centros de datos definidos por software] comenzará a desaparecer", dijo Longbottom. "Es la plataforma holística, SDDC”.

IoT y seguridad

El auge de la IoT es real.

La IoT tiene que ver con sensores capturando datos para alimentar los programas que encuentran problemas o crear información útil a partir de los datos. Ya sea su Fitbit capturando información de ciclos del sueño, un dispositivo conectado al puerto OBD-II de un camión de UPS para rastrear el kilometraje y la ubicación, o contadores inteligentes en la red eléctrica, todos esos datos necesitan ser almacenados y analizados en un centro de datos en algún lugar, dijo Paul Korzeniowski, un escritor independiente que cubre la nube y centros de datos.

Más empresas se subirán al carro de la IoT, dijo Clabby. Todas estas compañías –corporaciones, financieras y de salud– utilizan los centros de datos para soportar sus aplicaciones actuales. La pregunta sobre IoT es: ¿cómo se preparan las empresas para el ataque inevitable de los servicios de la IoT? La respuesta es no utilizar x86 para todo.

"Use la máquina adecuada para el trabajo correcto", dijo Clabby.

Eso significa usar un mainframe, si está haciendo analítica, o agrupar sistemas IBM Power para obtener resultados más rápidos, ya que la IoT se trata de encontrar información relevante rápido.

La seguridad de todos los datos se convierte en el siguiente orden del día, sobre todo porque muchas empresas habilitadas para la IoT almacenan los datos que se recogen en la nube pública. Los profesionales de TI saben que la seguridad es un gran problema, pero los ejecutivos son reacios a gastar más dinero en TI. Sin embargo, varias violaciones de datos de alto perfil en 2015 han llevado el asunto al primer plano.

El mercado de proveedores de infraestructura

Los expertos de centros de datos fueron unánimes sobre los cambios en el paisaje de los proveedores de infraestructura que los compradores de TI deben navegar. Las cargas de trabajo en movimiento hacia la nube afectan a los proveedores tradicionales de centros de datos, como se ha visto con Dell comprando a EMC y VMware, HP dividiéndose en dos y la ruptura de Symantec/Veritas.

Amazon Web Services está compitiendo con IBM y Oracle, convenciendo a las empresas a migrar los sistemas modernos y heredados a AWS. Azure de Microsoft también ha tenido un impacto con sistemas heredados. A la sombra de la nube, los líderes empresariales no ven el punto de gastar mucho en infraestructura de TI cuando simplemente pueden cambiar sus sistemas a un proveedor.

"Las empresas están tratando de gastar lo menos posible", dijo Korzeniowski. "Entonces, ¿qué es más valioso: el costo o las funciones?”.

Y los proveedores titulares están confundidos acerca de cómo evolucionar en un mercado en crecimiento que está sintiendo el impacto de la globalización y la agilidad de las pequeñas empresas.

"Los proveedores de servicios medianos están siendo adquiridos por los más grandes", dijo Clabby. "[Hewlett Packard Enterprise] está fuera de la nube pública, mientras que IBM [se metió] totalmente en ella con SoftLayer. Esta confusión de los grandes jugadores no terminará en 2016”.

La importancia de las APIs

Con el fin de mantener su relevancia, los profesionales de TI necesitan más experiencia con los sistemas de software y APIs. Las APIs les permiten crear automatización en el centro de datos.

"Las personas involucradas necesidad adquirir nuevas habilidades", dijo Longbottom. "Tienen que aprender APIs [y] sistemas de gestión de virtualización. Cada compañía propone su propia API –ellas necesitan hablar a través de los sistemas de back-end”.

Clabby ve el 2016 como el año en el cual los proveedores presentan herramientas de APIs.

“Usted no quiere tener que soportar todas estas conexiones –sería mejor tener un proveedor que lo haga– la interfaz de programación, enviar y recibir y ejecutar solicitudes", dijo. "¿Qué exige la aplicación, y cómo la herramienta API la mejora?”.

Pero no se trata solo de la gestión de las APIs con el software de la talla de Apogee, CloudBees y Varnish. Longbottom hizo hincapié en la importancia de conocer lo que está por encima del nivel de las APIs, y comprender la programación, en lugar de las secuencias de comandos.

"Todo lo que [los profesionales de TI] hacen en esa capa de software tendrá un impacto más grande que los avances de hardware”.

Sobre el edificio del centro de datos

Robert McFarlane, quien dirige el diseño de centro de datos para la consultora internacional Shen Milsom y Wilke, piensa que la gestión de la infraestructura del centro de datos (DCIM) se establecerá en un segundo plano en el año 2016, al tiempo que conserva su importancia como una herramienta esencial para los equipos de TI y de instalaciones.

"No quiero decir que [el mercado de DCIM] habrá madurado, porque no creo que vaya a hacerlo", dijo McFarlane. "Solo va a estar lejos de ser la palabra de moda de la industria de vanguardia”.

Con más híbridos de lo virtualizado, en la nube, en las instalaciones o en los sistemas de colocación de TI, tener las herramientas correctas de monitoreo y gestión de la información es esencial, dijo Longbottom.

Otro gran tema para las instalaciones será el nuevo estándar de eficiencia ASHRAE 90.4, que será estrenado en 2016. Esta nueva norma ASHRAE corregirá lo que algunos podrían llamar errores en la norma anterior 90.1, que sometía a los centros de datos a estándares basados ​​en prescripciones en lugar de en estándares basados en rendimiento. Los resultados podrían haber tenido terribles consecuencias para la fiabilidad. McFarlane, quien es un miembro votante del Comité de Estándares ASHRAE SPC 90.4, señaló que existe una diferencia entre publicar una norma y el momento en que es ampliamente adoptada y aplicada.

Próximos pasos

No olvide revisar también:

Examinando las tendencias de tecnología móvil para 2016

Ocho tendencias emergentes de centros de datos a seguir en el 2016

Principales tendencias de la industria de centros de datos para 2016

Este artículo se actualizó por última vez en enero 2016

Profundice más

PRO+

Contenido

Encuentre más contenido PRO+ y otras ofertas exclusivas para miembros, aquí.

Inicie la conversación

Envíenme notificaciones cuando otros miembros comenten sobre este artículo.

Enviando esta solicitud usted acepta recibir correos electrónicos de TechTarget y sus socios. Si usted reside afuera de Estados Unidos, esta dando autorización para que transfiramos y procesemos su información personal en Estados Unidos.Privacidad

Por favor cree un Nombre de usuario para poder comentar.

- ANUNCIOS POR GOOGLE

Close