macrovector - Fotolia

Evaluar Conozca los pros y contras de las tecnologías, productos y proyectos que está considerando.

Entrevista: Mark Potter, CTO de HPE

El jefe de Hewlett-Packard Labs habla acerca de una nueva era de la computación, donde la memoria ya no es un recurso limitado.

The Machine es el programa de investigación y desarrollo más grande en la historia de HPE. Su objetivo es entregar computación basada en memoria.

La computación basada en memoria pone la memoria, no el procesador, en el centro de la arquitectura informática. The Machine representa el programa de investigación de HPE para la computación basada en memoria. Se espera que las tecnologías que salen de la investigación se desplieguen en futuros servidores HPE.

El argumento de ventas es que debido a que la memoria solía ser costosa, los sistemas de TI fueron diseñados para almacenar los datos más usados frecuentemente, ​​y almacenar datos antiguos en el disco, pero con la memoria mucho más barata hoy en día, tal vez todos los datos podrían almacenarse en memoria, en lugar de en disco.

Al eliminar las ineficiencias de cómo la memoria, el almacenamiento y los procesadores interactúan actualmente en sistemas tradicionales, HPE cree que la computación basada en memoria puede reducir el tiempo necesario para procesar problemas complejos de días a horas, de horas a minutos, de minutos a segundos, para entregar inteligencia en tiempo real.

En una entrevista con Computer Weekly, Mark Potter, director de tecnología (CTO) de HPE y director de Hewlett Packard Labs, describe The Machine como un paradigma de computación completamente nuevo.

"En los últimos tres meses, hemos escalado el sistema 20 veces", dice. The Machine se está ejecutando ahora con 160TB de memoria instalada en un solo sistema.

Procesamiento de datos super rápido

La comunicación rápida entre la matriz de memoria y los núcleos del procesador es clave para el rendimiento de The Machine. "Podemos conectar ópticamente 40 nodos en más de 400 núcleos, todos comunicando datos a más de 1Tbps", dice Potter.

Él afirma que el sistema actual puede escalar a petabytes de memoria usando la misma arquitectura. La tecnología de red óptica, tal como la división de la luz en múltiples longitudes de onda, podría utilizarse en el futuro para aumentar aún más la velocidad de las comunicaciones entre la memoria y el procesador.

Los sistemas de cómputo modernos están diseñados de una manera altamente distribuida, con grandes matrices de núcleos de CPU. Pero, aunque hemos aprovechado el aumento del poder de procesamiento, Potter dice que el ancho de banda de los datos no ha crecido tan rápidamente.

Como tal, el cuello de botella en la potencia computacional ahora está limitado por la rapidez con que los datos pueden ser leídos en la memoria de la computadora y alimentados a los núcleos del CPU.

"Creemos que la computación basada en memoria es la solución para mover la industria de la tecnología de una manera que pueda permitir avances en todos los aspectos de la sociedad", dice Potter. "La arquitectura que hemos desvelado puede aplicarse a todas las categorías de computación, desde dispositivos de borde inteligentes, hasta supercomputadoras".

Poder de cómputo más allá de comparación

Un área de interés para esta tecnología es cómo se podría aplicar para construir una computadora de alto rendimiento (HPC), tal como una supercomputadora a escala exaflop.

The Machine podría ser muchas veces más rápida que todas las computadoras Top 500 combinadas, dice, y usaría mucho menos energía eléctrica.

"Un sistema exaflop lograría el poder computacional equivalente a todas las top 500 supercomputadoras actuales, que consumen 650MW de energía", dice Potter. "Nuestro objetivo es un sistema exaflop que pueda lograr el mismo poder de cálculo que las 500 supercomputadoras, consumiendo 30 veces menos energía".

Es esta idea de una computadora capaz de ofrecer niveles increíblemente altos de rendimiento en comparación con los sistemas de hoy, pero usando una fracción de la energía eléctrica de una supercomputadora moderna, lo que Potter cree que será necesario para apoyar la próxima ola de aplicaciones de internet de las cosas (IoT).

“Nuestro objetivo es un sistema exaflop que pueda lograr el mismo poder de cómputo que las 500 top supercomputadoras, consumiendo 30 veces menos energía
Mark Potter, HPE

"Estamos digitalizando nuestro mundo analógico. La cantidad de datos continúa duplicándose cada año. No podremos procesar todos los datos de IoT generados en un centro de datos, porque las decisiones y el procesamiento deben ocurrir en tiempo real", dice.

Para Potter, esto significa poner el cómputo de alto rendimiento en el llamado "borde", más allá de los confines de cualquier centro de datos físico. En su lugar, dice, gran parte del procesamiento requerido para los datos de IoT tendrá que hacerse remotamente, en el punto donde se recogen los datos.

"La arquitectura de The Machine se presta al borde inteligente", dice.

Una de las tendencias en el cómputo es que la tecnología de gama alta eventualmente termina en productos básicos. Un smartphone probablemente tiene más poder computacional que un supercomputador antiguo. Así que Potter cree que es totalmente factible para la computación de nivel HPC, como es el caso en una supercomputadora moderna, ser utilizada en IoT para procesar los datos generados por sensores localmente.

Considere el aprendizaje automático y el procesamiento en tiempo real en aplicaciones críticas para la seguridad. "A medida que entremos en el aprendizaje automático, tendremos que construir sistemas centrales de centros de datos que puedan ser empujados hacia el borde [de la red IoT]".

Sería peligroso e inaceptable experimentar cualquier tipo de retraso al computar decisiones críticas de seguridad en tiempo real, como el procesamiento de datos de sensores desde un vehículo autónomo. "Los sistemas de nivel de supercomputadora de hoy ejecutarán vehículos autónomos", dice Potter.

Entregables a corto plazo

La tecnología de The Machine se está introduciendo en la gama de servidores de HPE. Potter dice que HPE ha realizado análisis gráficos a gran escala sobre la arquitectura y está hablando con los institutos financieros sobre cómo la tecnología podría ser utilizada en simulaciones financieras, como las simulaciones de Monte Carlo, para comprender el impacto del riesgo.

Según Potter, estas pueden funcionar 1.000 veces más rápido que las simulaciones de hoy. En la asistencia sanitaria, por ejemplo, dice que está estudiando las enfermedades degenerativas, donde 1 TB de datos necesita ser procesado cada tres minutos. HPE está estudiando cómo transformar trozos enteros de la arquitectura de la aplicación médica en The Machine para acelerar el procesamiento de datos.

Desde una perspectiva de producto, Potter dice que está acelerando su hoja de ruta y planea implementar más sistemas de emulación durante el próximo año. Él dice que HPE también ha trabajado con Microsoft para optimizar el servidor SQL para la computación en memoria, con el objetivo de reducir la latencia.

Parte de la tecnología de The Machine también encuentra su camino hacia los servidores HPE de gama alta. "Hemos construido tecnología óptica en nuestros servidores de Synergy, y evolucionaremos con el tiempo", añade.

Hoy en día, las organizaciones crean sistemas de escalado masivo que pasan los datos dentro y fuera de la memoria, lo que no es eficiente. " The Machine reemplazará muchos de estos sistemas y ofrecerá una mayor escalabilidad de una manera más eficiente en energía", concluye Potter.

Investigue más sobre Tendencias de cómputo empresarial

Inicie la conversación

Envíenme notificaciones cuando otros miembros comenten sobre este artículo.

Por favor cree un Nombre de usuario para poder comentar.

- ANUNCIOS POR GOOGLE

Close