Intel y AMD acaban de crear dolores de cabeza para los centros de datos heredados • The Register


En la búsqueda de una densidad informática cada vez mayor, los fabricantes de chips potencian sus chips con más y más potencia y, según el Uptime Institute, esto podría significar problemas para muchos centros de datos heredados mal equipados para manejar sistemas más nuevos que consumen más energía. .

Los procesadores de servidor Epyc 4 Genoa de AMD anunciados a finales del año pasado, y el muy esperado silicio escalable Xeon de cuarta generación de Intel lanzado a principios de este mes, son los chips más potentes y que consumen más energía del dúo hasta la fecha. final de la pila de productos.

El TDP más alto llega en tiempo de bloque con mayor número de núcleos y velocidades de reloj que los núcleos de CPU anteriores de cualquiera de los proveedores. Ahora es posible incluir más de 192 núcleos x64 en el típico sistema de doble socket 2U, algo que habría requerido al menos tres nodos hace solo cinco años.

Sin embargo, como señaló Uptime, muchos centros de datos heredados no fueron diseñados para albergar tales sistemas ricos en energía. Un solo sistema de doble zócalo de cualquiera de los proveedores puede superar fácilmente un kilovatio y, según el tipo de aceleradores implementados en estos sistemas, el consumo de boxen puede superar con creces esa cifra.

La rápida tendencia hacia sistemas más calientes y densos en energía cambia las suposiciones de hace décadas sobre la planificación de la capacidad del centro de datos, según Uptime, que agregó: “Esta tendencia pronto llegará a un punto en el que comenzará a desestabilizar las suposiciones de diseño de las estructuras existentes”.

Esta tendencia pronto llegará a un punto en el que comenzará a desestabilizar los supuestos de diseño de las estructuras existentes.

Un rack típico permanece por debajo de los 10 kW de capacidad de diseño, señalan los analistas. Pero con los sistemas modernos que tienden hacia una mayor densidad de cómputo y, por extensión, densidad de potencia, esto ya no es adecuado.

Si bien Uptime señala que para las nuevas construcciones, los operadores de centros de datos pueden optimizar para densidades de potencia de rack más altas, aún deben tener en cuenta 10-15 años de margen. Como resultado, los operadores de centros de datos deben especular sobre las demandas de energía y enfriamiento a largo plazo que invitan al riesgo de construcción insuficiente o excesiva.

Dicho esto, Uptime estima que dentro de unos años la cuarta parte de un rack alcanzará los 10kW de consumo. Esto equivale a aproximadamente 1 kW por unidad de rack para un rack estándar de 42U.

Mantenga la calma

Alimentar estos sistemas no es el único desafío para los operadores de centros de datos. Todas las computadoras son esencialmente calentadores de espacio que convierten la electricidad en trabajo computacional y el subproducto es energía térmica.

Según Uptime, las aplicaciones informáticas de alto rendimiento ofrecen una muestra de los desafíos térmicos que se avecinan para las piezas más tradicionales. Uno de los mayores desafíos son las temperaturas de carcasa sustancialmente más bajas en comparación con las generaciones anteriores. Estos han bajado de 80 °C a 82 °C hace solo unos años a 55 °C para un número cada vez mayor de modelos.

“Este es un problema clave: eliminar grandes volúmenes de calor a baja temperatura es un desafío termodinámico”, escribieron los analistas. “Muchas estructuras ‘heredadas’ tienen una capacidad limitada para proporcionar el flujo de aire necesario para enfriar TI de alta densidad”.

Para mitigar esto, la Sociedad Estadounidense de Ingenieros de Calefacción, Refrigeración y Aire Acondicionado (ASHRAE) ha emitido recomendaciones operativas revisadas [PDF] para centros de datos, incluidas disposiciones para áreas dedicadas a bajas temperaturas.

La refrigeración líquida también ha ganado una atención considerable a medida que los chips se calientan cada vez más. Durante la Conferencia de Supercomputación del año pasado, profundizamos en las diversas tecnologías disponibles para enfriar los sistemas emergentes.

Pero si bien estas tecnologías han madurado en los últimos años, Uptime señala que todavía sufren de una falta general de estandarización “lo que genera temores de bloqueo de proveedores y restricciones en la cadena de suministro para partes clave, así como opciones reducidas en las configuraciones del servidor”.

Los esfuerzos para remediar estos desafíos han estado en marcha durante años. Intel y Open Compute Project están trabajando en diseños de referencia de refrigeración líquida y por inmersión para mejorar la compatibilidad entre proveedores.

A principios del año pasado, Intel anunció un “mega laboratorio” de 700 millones de dólares que supervisaría el desarrollo de estándares de inmersión y refrigeración líquida. Mientras tanto, el subproyecto Advanced Cooling Solutions de OCP ha estado trabajando en este problema desde 2018.

A pesar de estos desafíos, Uptime señala que el flujo de tecnologías de centros de datos también abre la puerta para que los operadores obtengan una ventaja competitiva si están dispuestos a correr el riesgo.

La energía cada vez es más cara

Y puede haber buenas razones para hacerlo, según la investigación de Uptime, que muestra que se espera que los precios de la energía continúen su trayectoria ascendente durante los próximos años.

“Los precios de la electricidad estaban en una trayectoria ascendente antes de la invasión rusa de Ucrania. Los precios de futuros de electricidad al por mayor ya se estaban cerrando, tanto en el mercado europeo como en el estadounidense, en 2021”, dijo Uptime.

Si bien no se aborda directamente en el informe del instituto, no es ningún secreto que el enfriamiento directo por líquido y el enfriamiento por inmersión pueden lograr una efectividad en el uso de energía (PUE) significativamente menor que el enfriamiento por aire. La métrica describe la cantidad de energía utilizada por los centros de datos que se destina a equipos informáticos, de almacenamiento o de red. Cuanto más cerca esté el PUE de 1,0, más eficiente será la estructura.

El enfriamiento por inmersión tiene uno de los PUE más bajos de cualquier régimen de gestión térmica. Los proveedores como Submer suelen reclamar índices de eficiencia de hasta 1,03.

Cada vatio que ahorra TI alivia las presiones en otros lugares

El costo de la electricidad no es la única preocupación para los operadores de centros de datos, señalaron los analistas de Uptime. También enfrentan obstáculos regulatorios y ambientales de los municipios preocupados por el espacio y el consumo de energía de las operaciones de los centros de datos cercanos.

Se espera que la Comisión Europea adopte nuevas regulaciones bajo la Directiva de Eficiencia Energética que, según Uptime, obligará a los centros de datos a reducir tanto el consumo de energía como las emisiones de carbono. Una regulación similar ha sido lanzada en los Estados Unidos. Más recientemente, se presentó un proyecto de ley en la asamblea de Oregon que requeriría centros de datos y operaciones de minería de criptomonedas para reducir las emisiones de carbono o enfrentar multas.

Uptime espera que las oportunidades para una mayor eficiencia se vuelvan más evidentes a medida que estas regulaciones exigen informes regulares sobre el consumo de energía y las emisiones de carbono.

“Cada vatio que ahorra TI alivia las presiones en otros lugares”, escribieron los analistas. “Los requisitos de información arrojarán luz, tarde o temprano, sobre el gran potencial para una mayor eficiencia energética actualmente oculto en TI”. ®



Source link

Deja un comentario

Translate »