Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

DatacenterDynamics : Vers une amélioration de la maîtrise des Data Centers

novembre 2011 par Marc Jacob

L’édition d’hiver de Data Center Dynamics qui s’est déroulée pour la première fois à Lyon a été un réel succès, tant en matière de fréquentation avec près de 150 personnes que de qualité des conférences. En effet, plusieurs utilisateurs sont venus témoigner de leur retour d’expériences sur l’amélioration des capacités de leurs Data Centers.

Le free-cooling peut diviser par 10 la facture énergétique et accroître la fiabilité

Bernard Boutherin, Ingénieur de Recherche au LGC, qui dépend du CNRS, a présenté une étude de cas de free cooling en termes d’éco-énergie et de fiabilité. Ce centre de recherche travaille en collaboration avec le CERN de Genève, en particulier pour les projets ATLAS et ALICE. Avant le free cooling jusqu’en début 2008, ce laboratoire possédait 8 baies de 42U soit 100KW pour un coût d’exploitation de 60.000€/an et un coût de refroidissement compris entre 50 et 60% de la facture électrique. Bernard Boutherin a rappelé que Grenoble bénéficie de températures relativement basses tout au long de l’année. C’est ce qui a conduit le laboratoire à une réflexion autour de l’utilisation de l’air froid extérieur pour refroidir le DC. De plus, il y a des écarts de température importants même lors des journées les plus chaudes. Fort de ce constat, la décision a été prise d’utiliser du free cooling à air direct. En effet, durant 85% du temps, l’air à Grenoble est inférieur à 25°C, ce qui est tout à fait acceptable pour refroidir des serveurs. Par contre, il est nécessaire de bien gérer les flux d’air chaud et froid. Durant les 15% du temps où l’air est supérieur à 25°C, ils ont opté pour la mise en place d’un free-cooling eau-air sans compresseur ni donc de liquide frigorigène. Ainsi, ils ont installé un système de ventilation avec un filtre et un échangeur qui envoie l’air dans le faux plafond. De plus, en mode d’utilisation, il a été prévu des variations des consignes de températures : lorsque l’air est inférieur à 13°C, on en profite pour diminuer la température des faces avants, ce qui a pour effet de réduire les pannes. Lorsque la température est comprise entre 13 et 25°C, on utilise l’air tel que. Dans le cas où la température est supérieure à 25°C, on utilise l’air froid pulsé par les serveurs et l’échangeur eau-air. Dans ce schéma, le laboratoire s’est contenté de filtre G4 plutôt que des F7 mais qui sont remplacés 4 fois par an pour un coût annuel de 1000€. Bertrand Boutherin a tout de même mentionné quelques points négatifs parmi lesquels des problèmes marginaux d’humidité. Ce laboratoire n’applique pas les recommandations de l’ASHRAE car au final, par rapport à ce DC, elles induisent une consommatrice d’énergie supplémentaire. En revanche, il a insisté sur les bénéfices de la solution après plus de 3 ans d’exploitation, avec entre autres aucun arrêt d’exploitation lié à la climatisation. De plus, le coût de refroidissement a été divisé par plus de 10.

Quand le Canton de Vaud rationalise son IT

Denys Papeil, Canton de Vaud, a présenté le programme de restructuration des data centers mis en chantier depuis 2008, en parallèle avec le programme de cyberadministration qui a réellement débuté en août 2009. Le canton est propriétaire de son propre réseau de fibre du fait des besoins importants. Il a été décidé de reprendre toute l’IT en interne. Un audit est réalisé sur la base "que tout peut être remis en cause". Suite à l’audit, un schéma de toutes les missions des collaborateurs a été créé en mettant des objectifs individuels à chacun d’entre eux. Cet audit a permis de lancer un Cloud Communautaire afin de rationaliser l’IT en particulier le nombre de serveurs, les versions logiciels utilisées... par exemple on est passé de 8 versions d’Oracle à 2. Au niveau de la virtualisation, on est passé de 15% des serveurs à 95%. De même, on a mis en place de processus ITIL, une automatisation des changements et des suivis de production. Enfin, le Canton s’est fixé pour objectif 2012 /2013 pour que tout devienne "package", ainsi aucun ingénieur n’a accès à la production. De plus, tout ce qui est livré est documenté. Les principaux freins notés par Denys Papeil sont plutôt issus de la "culture" des ingénieurs que la technique. Ainsi, du fait de l’accroissement constant des besoins, le Data Center a été revu pour aller vers un Green Data Center afin de réduire les coûts de fonctionnement. Un bâtiment de 200 m² existant a été réhabilité. Il contient un freecooling par chiller sur le toit en utilisant directement l’air froid à partir de 15°C extérieur. Bien sûr, des allées froides ont été délimitées. Les allées froides sont comprises entre 21et 23°C. Un calcul a montré qu’une variation d’un degré avait une incidence sur les coûts d’exploitation de 4%. Toutefois, l’utilisation d’un bâtiment existant a amené des contraintes comme le fait d’avoir une seule génératrice, mais aussi de ne pouvoir installé qu’une citerne à essence de 4000 litres. Il n’y a pas d’extinction par gaz mais un système de détection par particules. De plus, on a pas de possibilité de mettre un SAS d’entrée mais installation d’un SAS virtuel avec des systèmes de caméras pour détecter les entrées sorties.

Lab Group au Luxembourg opte pour du free cooling

Francis Gilard, Lab group, a présenté un retour d’expérience en matière de free cooling pour un data Center Il a précisé la différence entre free chilling et free cooling : Free cooling utilisation de l’air directement pour refroidir les serveurs alors que que le free chilling c’est l’utilisation de l’air pour refroidir les canalisations d’eau qui servent au refroidissement des serveurs. Cette dernière technologie permet d’éviter d’avoir des problèmes de qualité d’air dans les DC et d’installer des filtres dont le coût est souvent élevé. Au Luxembourg, les variations de températures sont faibles avec 270 heures par an à 0°C et une température exploitable de plus de 4000 heures en moyenne durant lesquelles la température est autour de 8°C à l’extérieur. Ïl a présenté rapidement un budget de fonctionnement comparé qui montre un gain de 34000 €/an pour une puissance de 300KW/h. Il a fait une étude sur le coût d’installation avec un ROI de 1,5 années. Il a fait une étude aussi avec une "tour évaporative" qui augmente légèrement le ROI. Quand utiliser une solution de free-chilling ? Il faut faire une cartographie des températures avérées, faire une étude de détails en particulier au niveau de l’hydraulique. Il faut s’assurer de l’utilisation des serveurs, en particulier ceux qui travaillent à hautes températures. Son calcul montre qu’une augmentation de 1¨C permet un gain de 12% sur les consommations énergétiques. Le cloisonnement en ailes chaudes permet d’obtenir un gain en eau froide dans les unités terminales. Il faut aussi faire la chasse aux trous dans les racks afin de les densifier au maximum. L’utilisation d’une tour évaporative conduit à mettre en place un système de retraitement d’eau. Pourtant l’utilisation du free-chilling ne peut pas être déployé dans toutes les configurations en particulier pour des problèmes de génie civil du fait du poids des installations qui est de plusieurs tonnes, mais aussi des variations de températures extérieures. Il a également mentionné les problèmes liés à des températures extérieures trop basses qui feraient geler les canalisations engendrant des arrêts. Dans ce cas, il a suggéré d’utiliser du glycol. Il faut aussi mettre en place une bonne maintenance pour surveiller l’état du glycol qui vieillit et doit être changé impliquant un arrêt du DC, sauf si on est en tiers IV.

Le brouillard d’eau permet de préserver les serveurs

Pierre Breillout, Directeur des opérations de Marioff, a présenté une étude réalisée pour un de ses clients concernant les impacts sur les installations en cas de feu : "comment protéger un DC avec du brouillard d’eau ?" Il a mis en avant l’intérêt d’un système de brouillard d’eau en opposition au système d’extinction par eau directe tant au niveau de la qualité de l’eau que des quantités d’eau nécessaires. Il a rappelé le principe de base du brouillard d’eau qui est le fractionnement de la quantité d’eau en micro-gouttelettes. Ainsi la surface de refroidissement va être plus importante tout en raréfiant l’oxygène afin de réduire la diffusion du feu. Il a rappelé que différentes buses sont utilisables en fonction du type d’extinction dont on a besoin.
Le scénario était de vérifier l’impact sur les serveurs d’un départ de feu en maintenant le free-cooling. Ils ont analysé le comportement de 24 serveurs sur brouillard d’eau. Le matériel actif a été fourni par le client. Des couloirs froids ont été reconstitués, les baies ont été installées. Des buses types sprinkler dans les allées chaudes et des buses de types déluges dans les allées froides ont été placées. Puis une première simulation a été réalisée avec des équipes d’intervention qui se sont portées sur le feu 10 mn après le début du sinistre. Au final, les serveurs n’ont pas disjoncté sauf ceux qui ont été incendiés. On a constaté en partie basse 300°C au départ du feu puis après intervention des buses, la température est repassée autour de 30°C. Pour cette expérimentation, 3 campagnes de test avec des débuts d’intervention après des délais différents de 10, 20 et 40 minutes. Au total les serveurs ont été soumis à 1h30 d’exposition au feu. Les tests ont montré que les autres serveurs continuaient de fonctionner et ne semblaient affectés en tout à moyen terme, malgré les traitement qu’ils ont subi.

Comment manager son Data Center en s’appuyant sur une démarche ITIL

Frédéric Charron d’Apis a démontré comment industrialiser la production informatique dans un DC dans le cadre d’ITIL. L’intérêt de cette démarche est qu’ITIL est un langage connu par les DSI. La problématique est de déterminer pour chaque intervention dans un DC le coût en analysant donc les processus de production. Les premiers points à prendre en compte sont la gestion du risque et la disponibilité.
On demande à l’informatique de se mettre au service de processus industriel pour améliorer la productivité. Toutefois, souvent dans les services informatiques, on ne sait pas industrialiser l’informatique. Il est vrai que l’IT est la seule industrie qui soit propriétaire de son outil de production. Industrialiser l’IT implique de pouvoir produire de façon reproductible ce qui est mal connu par les services informatiques. Il va falloir produire en volume en utilisant des outils maîtrisés et fiables. Il faut donc des moyens adaptés à une industrialisation. Il est nécessaire de mettre en place des procédures en prenant en compte que la matière dans l’informatique est impalpable mis à part bien sûr les outils : serveurs, PC... et autres matériels informatiques. Partant de ces constats, il a montré l’utilité d’avoir recours à ITIL. Un comité de pilotage doit être mis en place pour aider à la mise en production de nouvelles applications dans le DC. Les 2/3 des problèmes des DC sont dus au manque d’urbanisation ; "on a bien souvent "jeté" des serveurs dans les DC en fonction des besoins..." s’est exclamé Frédéric Charron. Ainsi, une surveillance doit être mis en œuvre qui fera un suivi des évolutions du DC afin d’analyser les défauts de production. Il est donc primordial de construire une stratégie d’urbanisation pour éviter d’introduire des problèmes d’exploitation. Ainsi, plus de 20 à 30% des capacités du DC peuvent être récupérées.
L’urbanisation est de deux types en gestion capacitaire ici donc en mode projet mais aussi lors de l’exploitation afin de gérer les disponibilités pour envisager les prochains déploiements. Afin de réellement industrialiser un DC, il est important de définir des référentiels afin que les déploiements utilisent les mêmes processus. Dans ce cadre, il faut construire des tableaux de bord avec des niveaux d’atteinte d’objectifs. Il a recommandé de mettre en place des indicateurs de variation consommation d’eau, de température, de PUE... Il a insisté sur la formation des collaborateurs. En conclusion, il a rappelé que c’est un long chemin qui passe par la prise de conscience de la nécessité de mettre en place une industrialisation d’un DC.

Quelques pistes novatrices pour réduire les coûts de fonctionnement

David Atienza de L’Ecole Polytechnique de Lausanne a débuté son intervention en rappelant les intérêts du Green Computing, non seulement pour les DC, mais aussi pour les clients finaux. Le Green Computing doit à la fois permettre de réduire l’énergie tout en conservant le même niveau de performance. Pour lui, la conception des DC d’aujourd’hui n’est pas optimal, ainsi on ne peut pas connaitre l’évolution du niveau d’énergie dont on aura besoin. En particulier, les systèmes de chiller, de free-ccoling... ne sont pas suffisamment efficaces. Il a suggéré de travailler au niveau global du DC. Il faut donc optimiser l’utilisation des composants en particulier des serveurs et des processeurs de nouvelles générations moins consommateurs d’énergie, se servir des informations contenues dans les microprocesseurs, utiliser des systèmes d’optimisation...

Empreinte Carbonne : un calcul complexe mais pas impossible

Zen’to Technologie est une start-up spécialisée dans le Green IT. Laurent Molinari, un de ses dirigeants, a rappelé les grands principes de la compatibilité carbone. Il s’agit de recenser l’impact des activités humaines sur la consommation de CO². Aujourd’hui cette compatibilité est encore jeune mais est en train de se normaliser au sens ISO avec la norme 14064. Le périmètre d’analyse commence à se structurer en trois niveau qui comprennent des impacts plus ou moins directes allant des consommations directes aux induites. Pour un centre de données, il a décrit l’ensemble des points concernés depuis la phase de construction du bâtiment, du fonctionnement courant en partant de la commercialisation, jusqu’à sa maintenance, voire sa destruction. Il a pris le cas d’un hébergeur qui avait souhaité se mettre en avance de phase des futures réglementations et avoir une approche vis-à-vis de ses clients en termes de services rendus et non plus seulement de PUE. Suite à cette étude, la société Zen’to a créé une solution logicielle qui permet de façon industrielle de donner aux clients une information sur leur consommation CO².

Data Center : Pleine propriété ou externalisation ?

Pour conclure cette journée, un débat animé par Frédéric Charron du CESIT, Christophe Weiss, Directeur Général d’APL, Samuel Triolet, Rezopole, et deux responsables IT d’utilisateurs, un dans l’industrie et le second dans un CHU, ont débattu sur le thème de Data Center : pleine propriété ou externalisation, quel est le bon choix ? Pour ce CHU, il était plus intéressant de construire son propre Data Center du fait de l’expertise des collaborateurs à tous les niveaux : la partie génie civil, l’électricité, les télécoms, informatique... Chez cet industriel, la question était plutôt d’externaliser au maximum les services mais sur un cloud privé. Par contre, concernant le Data Center, le choix pour des raisons réglementaires et de confidentialité des données, le DC a été construit sur son site et a permis d’héberger son cloud privé. Christophe Weiss explique que la tendance va vers l’externalisation, mais on n’a pas toujours un hébergeur de confiance à proximité. Donc, c’est quasiment systématiquement du cas par cas, il faut être pragmatique. Pour Frédéric Charron, l’offre d’externalisation s’est structurée et elle garantit des SLA pour des coûts intéressants. Bien sûr, rajoute Christophe Weiss, d’autant que les hébergeurs proposent des coûts en fonction des services et garanties rendues. Aujourd’hui, complète ce responsable IT du CHU, il y a 14 hébergeurs agréés "Santé" alors que lorsque nous avions pris la décision d’investir, il n’y en avait pour ainsi dire pas. Samuel Triolet a déploré que sur la région Rhône Alpes, il y ait une réelle pénurie de DC. La taille moyenne d’un DC dans cette région est de 300 m², le plus grand ferait environ 1.000m². Frédéric Charron reprend en se demandant si ce manque d’offre n’est pas la conséquence d’un manque de besoins en région...
La question s’est posée sur la sécurité du Cloud et surtout la maîtrise des contrats signés. D’ailleurs, ce responsable du CHU remarque que les prestataires ont bâti des contrats qui leur sont propres. Ils ne souhaitent pas répondre aux appels d’offre spécifiques qui impliquent des contraintes inhérentes aux métiers, a-t-il conclu.


Voir les articles précédents

    

Voir les articles suivants