Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Nicolas Aubé, Président de CELESTE, Datacenters, la haute densité devient la règle

mai 2011 par Nicolas Aubé, Président de CELESTE

La révolution du temps réel avec Internet implique une nouvelle approche de
la continuité de service et ainsi des exigences fortes de disponibilité de
tous les maillons de la chaine informatique : connexions, serveurs, centres
informatiques… Pour ces derniers, la haute densité est devenue le critère
clé de conception et d’évaluation.

Un datacenter est un bâtiment sécurisé hébergeant des ressources
informatiques. Ce bâtiment est conçu pour assurer la continuité de
fonctionnement et de service de ces ressources. La continuité de service est
donc au cœur de la conception de tous les centres informatiques du monde
même s’il n’existe pas de norme pour la mesurer. Depuis 2007, les
professionnels du secteur se réfèrent à la classification de l’Uptime
Institute, avec des niveaux de « Tier I » à « Tier IV » (1) suivant le degré
de disponibilité du service.

L’efficacité énergétique n’est donc pas un critère « historique » pour la
conception des datacenters, et notamment pour ceux construits avant 2009.
Des contraintes sur les rendements efficaces pèsent sur les équipements, du
transformateur à l’onduleur ou les climatiseurs… Mais force est de constater
que la conception elle-même (urbanisation, bâtiment…) des salles
informatiques n’est pas prise en compte.

Entre 2004 et 2008, l’apparition de processeurs plus denses et de serveurs
très consommateurs d’énergie comme les « blades » a fait monter les besoins
en densité des datacenters de 500 W au m2 à plus de 1000 W. Du coup, de
nombreux centres se trouvent confrontés à des problèmes de
sous-dimensionnement électrique et thermique : ils ne peuvent plus répondre
à la demande des clients. Ils subissent des pannes dues à la
sur-consommation, comme des pannes du système de refroidissement l’été
pouvant impacter le fonctionnement des serveurs en quelques minutes.

Au-delà des problèmes de dimensionnement, les coûts de l’énergie deviennent
une problématique prépondérante pour le fonctionnement du datacenter : coût
financier compte-tenu des évolutions du prix de l’électricité sur le marché
européen et évidemment coût écologique. La prise en compte de l’empreinte
écologique est devenue pour certaines entreprises et collectivités un
nouveau critère de sélection des fournisseurs ou d’arbitrage entre solutions
techniques équivalentes. Les centres énergivores deviennent moins attractifs
pour les clients.

D’un point de vue opérationnel, financier et écologique, l’efficacité
énergétique est devenue le point clé pour l’évaluation des datacenters. Sur
le marché, elle est traditionnellement mesurée par avec le ratio « Power
Usage Effectiveness ». Le « P.U.E. » indique le rendement énergétique moyen
sur une année. Sur les sites d’ancienne génération, ce ratio est de l’ordre
de 2 : pour 1 W d’énergie utile pour les serveurs, 1W est utilisé pour le
fonctionnement du site, notamment pour la production de froid. D’autres
ratios peuvent être utilisés comme la consommation de Carbone ou d’eau.

Depuis 2009, deux avancées importantes ont été apportées pour améliorer l’
efficacité énergétique et la haute densité des sites industriels. La
première consiste en une meilleure urbanisation des salles informatiques :
organisation en « allées froides » et « allées chaudes », création des
séparations étanches pour le confinement des flux d’air et l’optimisation du
rendement de la climatisation. Sur les dernières salles construites par les
exploitants historiques de datacenters, ces procédés ont été mise en œuvre.

S’il est difficile de connaître le rendement de ces salles, on peut estimer
que le gain est d’environ 15% par rapport aux salles traditionnelles. En
effet, la démarche de confinement est efficace ; elle permet d’utiliser le
refroidissement par l’air ambiant ou free-cooling dans les zones tempérées.
Dans ce cas, les systèmes de climatisation utilisent le froid de l’air
extérieur si possible.

L’autre avancée est celle des exploitants de sites Internet (comme Google,
Facebook ou Microsoft), qui travaillent sur des serveurs moins sensibles aux
températures élevées ou dotés de système de refroidissement des composants
avec de l’eau froide. Avec cette approche, on peut ne plus refroidir les
salles informatiques, voire même éteindre des salles complètes lorsqu’il
fait trop chaud à un endroit donné. Cette démarche semble efficace, mais
elle implique une maîtrise complète de la chaîne datacenters + serveurs +
applications et ne peut donc pas être mises en œuvre dans la plus part des
centres dits « ouverts », c’est-à-dire acceptant tous types de serveurs.

D’autres tendances voient le jour… D’autres projets remplacent l’énergie
électrique nécessaire à la climatisation par un apport d’eau froide via une
source d’eau naturelle. L’impact sur l’environnement n’est pas négligeable
et il faut en tenir compte afin de calculer le rendement de ces
installations, ce qui peut le dégrader sensiblement. Une démarche
intéressante reste cependant la modularité des salles informatiques,
démarche déjà initiée sur le marché. L’enjeu est de monter une
infrastructure rapidement, pour des montées en charge rapides ou pour des
besoins temporaires. Prenez l’exemple des datacenters en containers de
certains équipementiers : ils permettent l’hébergement de plusieurs baies
avec un système compact de circulation de l’eau pour le refroidissement et
le cheminement des connexions électriques et réseaux.

De plus, ce système est adapté au « cloud computing » car il suit les
besoins en infrastructure « à la demande ». Par contre, les rendements
énergétiques vont dépendre de la technologie de refroidissement choisie. Les
datacenters en containers qu’on peut voir sur le marché utilisent tous un
réseau d’eau froide pour le refroidissement des machines. Or l’énergie
utilisée pour refroidir l’eau ne permet pas d’effectuer de véritables
économies.

Haute densité et efficacité énergétique sont intimement liées ; de
nombreuses pistes sont explorées pour combiner haute densité et écologie
tant au niveau des infrastructures, que des matériaux ou encore des
matériels. La révolution numérique porte en elle les germes d’une nouvelle
révolution écologique : l’Internet Vert.


Voir les articles précédents

    

Voir les articles suivants