Servicios
Internet

Cómo mejorar la eficiencia energética en los centros de datos

Es una realidad que los centros de datos necesitan energía para funcionar. Y la energía eléctrica que precisan provoca más calor aún en estos espacios, lo que requiere mayores capacidades de refrigeración. Una forma de medir la eficiencia energética de estos centros es el llamado PUE (Power Usage Effectiveness, efectividad del uso energético), que es el ratio total de energía consumida y destinada a las TI, a la refrigeración, a la luz, etc. dividida por la energía consumida por cada equipo de TI. Se considera que el mejor PUE es el más cercano al 1,0, aunque los ratios de 2,0 son, lamentablemente, muy comunes.

Para mejorarlo muchas compañías como Apple, Google y Microsoft, junto a las empresas de hosting de centros de datos, han instalado algunos de sus grandes data centers en sitios adecuados para mejorar su eficiencia energética (es conocido el caso de Google, que tiene muchos de sus servidores en medio del océano Pacífico, y que además usa técnicas de enfriamiento por evaporación; no en vano, los centros de datos diseñados por Google utilizan la mitad de la energía de un centro de datos convencional). Además, muchos diseñadores de estos centros están empezando a utilizar otras fuentes de energía que no consuman combustible o que tengan una huella de carbono más baja (por ejemplo, Verne Global ha diseñado un centro de datos neutral en carbono en Islandia, que se nutre de fuentes de energía hidroeléctricas y geotermales).

Miguel Ángel Ordoñez, director del área de CPD en IBM España, destaca en este sentido que “el uso de tecnologías de refrigeración basadas en enfriamiento gratuito por aire exterior, directo o indirecto se imponen en los entornos que son climatológicamente favorables. Se plantean proyectos con directrices claras de aprovechamiento de las condiciones del entorno. La fase de selección del sitio para un nuevo centro de datos está ahora protagonizada por la búsqueda de factores energéticamente favorables, como zonas con suministros más económicos, energías renovables, construcciones más sostenibles y certificables energéticamente. El avance ha sido significativo”, concluye. La incorporación de tecnologías de virtualización extrema, hardware con refrigeración líquida o la implantación de avanzados sistemas de gestión energética en el centro de datos son otros aspectos al alza en este mercado.

Otras tendencias
No obstante, no todos los expertos están de acuerdo con la idea de deslocalizar los CPD a otros países con el objetivo de reducir los costes energéticos. Jordi Torres, investigador del Barcelona Supercomputing Center-Centro Nacional de Supercomputación (BSC-CNS) y catedrático de la UPC Barcelona Tech, recordaba recientemente en un evento del Círculo del Conocimiento que “la proximidad de los servidores a los usuarios es esencial para garantizar un mayor control y disponibilidad de la información”.

Además, como indica José Luis Martorell, director de Desarrollo de Negocio de Schneider Electric, existen otras tendencias para mejorar la eficiencia energética en los CPD: “La fabricación de equipos informáticos de bajo consumo, sistemas de alimentación de alta eficiencia energética, equipos de refrigeración basados en fila y/o optimizados, etc.”, aunque asegura que la más solvente es el DCIM (Data Center Infrastructure Management), que consiste en la integración de las disciplinas de TI y de Facilities mediante la monitorización, gestión y planificación inteligente de la capacidad de los sistemas críticos, permitiendo así a los responsables de TI medir el uso de energía y mejorar la operatibilidad de las altas densidades. “De este modo, permite optimizar el emplazamiento del equipamiento IT teniendo en cuenta los requisitos de alimentación, refrigeración y espacio. Estas funcionalidades son la clave para cambiar los procesos operativos del CPD, mejorando así su eficiencia”, explica.

Más eficiencia con ‘cloud’
Para Martorell, el modelo de cloud computing “puede y debe sumar en la eficiencia energética”. “La tecnología sobre la que se define el modelo de cloud computing es la virtualización, la cual ya se encuentra en un estado de madurez importante. Así, en este sentido ya estamos acostumbrados a asociar ahorros operativos y energéticos a la misma. El cloud computing va un paso más allá, es la adecuación en todo momento de nuestra capacidad TI a los requerimientos del negocio, es pues también un paso más en cuanto a la eficiencia operativa y energética a nivel TI, podríamos decir entonces que el cloud computing supondría la optimización de ambos conceptos a nivel TI”, añade.

RELACIONADO:
El CESGA reduce el consumo de energía del supercomputador FinisTerrae

Eso sí, afirma que es importante destacar que la optimización de la eficiencia energética sólo va a ser posible si existe un alineamiento de la infraestructura no TI con el equipamiento TI, “y sólo a través de herramientas DCIM vamos a tener la visibilidad necesaria para poder evaluar en qué estado nos encontramos”.

Centros modulares
Otra tendencia en auge es la implantación de centros de datos modulares. Son ya varios los proveedores que disponen de oferta en este sentido. Por ejemplo, IBM, HP, Oracle, Huawei y Dell. En el caso de HP, Ester de Nicolás, directora de Desarrollo de Negocio de Cloud Computing, destaca que la propuesta de su empresa (el llamado EcoPod) se puede instalar en tres meses, cuesta un 75% menos que la construcción de un centro de datos tradicional y tiene un ahorro de energía, comparado con esos centros de datos tradicionales, del 95%.

Viñeta publicada el 20 de febrero de 1870 en La Flaca n.º 35 Tendencias

ny2 ACTUALIDAD

ny2 Sociedad de la información

Día de la Movilidad y el BYOD Coffee Break