Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Vertiv identifie les tendances 2017 dans le domaine des infrastructures de datacenter

décembre 2016 par Vertiv

Vertiv, anciennement Emerson Network Power, publie six tendances à surveiller en 2017 dans le domaine des infrastructures de datacenter. Cette publication fait suite aux Tendances 2016 des datacenters publiées par Emerson Network Power l’année dernière.

« En 2016, notre industrie a été fortement influencée par des macro-tendances globales dont, au premier rang, de nouvelles innovations cloud et la responsabilité sociale », a expliqué Giordano Albertazzi, président, Europe, Moyen-Orient et Afrique de Vertiv. « À l’heure où le cloud computing s’intègre plus étroitement que jamais dans les opérations informatiques, notre mission va désormais consister à améliorer les infrastructures sensibles sous-jacentes pour faire face aux nouveaux volumes de données traités par les entreprises. Nous sommes convaincus que 2017 sera l’année où les professionnels de l’informatique investiront dans le renforcement de leurs installations de datacenter afin de préserver leur agilité et leur flexibilité dans les années à venir. »

En 2017, l’écosystème du datacenter sera modelé par six grandes tendances d’infrastructure :

1. L’infrastructure dans une course contre la montre pour rester en phase avec la connectivité en périphérie
L’informatique distribuée et l’Internet des objets industriels (IIoT) rapprochent les ressources informatiques des utilisateurs et des processus industriels. Si le datacenter continue de jouer un rôle décisif dans la distribution d’applications et de services (gestion des points de vente et des inventaires, par exemple), les armoires réseau et les micro-datacenters gagnent en nombre et en importance avec la prolifération des capteurs et des appareils connectés, et des utilisateurs qui demandent un accès toujours plus rapide aux informations. En réponse à ces changements, les entreprises vont se tourner vers des solutions de micro-datacenter préconfigurées permettant un déploiement rapide, une plus grande standardisation et une surveillance à distance de l’ensemble des sites informatiques distribués. La standardisation et la modularité deviennent aussi cruciales dans les sites informatiques distribués que dans les datacenters de grande envergure.

Les armoires réseau et les sites informatiques distants déjà en place vont être réévalués afin de vérifier que leurs dispositions électriques et de refroidissement sont capables de satisfaire la nature plus critique de ces installations, qui vont commencer à prendre en charge la collecte et l’analyse localisées de données temps réel provenant de capteurs et d’appareils connectés.

2. La gestion des systèmes de refroidissement devient durable
Le refroidissement du datacenter a plus changé au cours de ces cinq dernières années que tout autre système du datacenter. Dans une volonté de réduire les coûts énergétiques, les approches traditionnelles axées sur la production d’un « refroidissement maximum » ont été remplacées par des visions plus sophistiquées cherchant à éliminer la chaleur de la façon la plus efficace possible. L’utilisation accrue de technologies d’économie avancées et l’évolution constante des contrôles thermiques intelligents ont permis l’élaboration de stratégies de refroidissement hautement résilientes qui prennent en charge des PUE inférieurs à 1,2.

Aujourd’hui, si l’efficacité énergétique reste une préoccupation majeure, la consommation d’eau et l’utilisation de réfrigérant sont également des facteurs de poids dans certaines régions. Aujourd’hui, grâce à la multiplication des stratégies de refroidissement disponibles, les opérateurs de datacenter adaptent le refroidissement à la localisation du site et à la disponibilité des ressources. Les tendances commerciales globales affichent une hausse de l’utilisation de nouvelles technologies qui exploitent le refroidissement par évaporation et adiabatique, qui consiste à utiliser de l’eau pour refroidir l’air ambiant. Ces technologies assurent un refroidissement hautement efficace, fiable et économique.

D’autre part, les systèmes de refroidissement sans eau gagnent du terrain dans les régions où la disponibilité de l’eau et son coût s’avèrent problématiques. Un système traditionnel à eau glacée en boucle ouverte utilise environ 15 000 mètres cubes d’eau pour refroidir 1 MW de capacité informatique pendant un an. Les nouvelles technologies à économiseur avec pompage de réfrigérant, qui n’utilisent pas d’eau et n’introduisent pas d’air extérieur dans le datacenter, permettront d’économiser près de 3,8 millions de mètres cubes d’eau en Amérique du Nord en 2016.

3. La gestion du datacenter assume désormais des responsabilités de sécurité
Si les failles de sécurité figurent en bonne place de la majorité des gros titres dans le domaine de la sécurité, la disponibilité du datacenter devient un facteur clé. L’Étude 2016 sur le Coût des coupures de datacenter du Ponemon Institute a révélé que les cyberattaques représentaient 22 % des pannes de datacenter étudiées.

De plus en plus d’appareils sont connectés afin de simplifier leur gestion et, à terme, d’en permettre l’automatisation, mais cela accroît aussi les vecteurs de menace. Les professionnels des datacenters ajoutent la sécurité à leur liste de priorités toujours plus longue, et se mettent en quête de solutions pouvant les aider à identifier les vulnérabilités et à améliorer la réponse aux attaques. Les passerelles de gestion qui rassemblent les données de plusieurs appareils pour appuyer le DCIM émergent comme solution potentielle. Avec quelques modifications, elles peuvent identifier les ports non sécurisés des infrastructures sensibles et alerter très tôt en cas d’attaque de déni de service.

4. Le DCIM fait ses preuves
Le DCIM continue de faire la démonstration de sa valeur, aussi bien sur le plan des problématiques prises en charge que par sa capacité à gérer l’écosystème toujours plus complexe du datacenter. Les opérateurs les plus visionnaires utilisent le DCIM pour relever les défis du datacenter tels que la conformité réglementaire, l’ITIL (Bibliothèque pour l’infrastructure des technologies de l’information) et la gestion des environnements hybrides. Enfin, les fournisseurs de colocation voient dans le DCIM un outil précieux pour analyser leurs coûts par client et pour fournir à leurs clients une vue à distance sur leurs ressources.

Le DCIM a joué le rôle de précurseur de l’IIoT dans le datacenter, fournissant la vue, la coordination accrue des systèmes et l’automatisation qui sont au cœur de la proposition de valeur de l’IIoT.

5. Les alternatives aux batteries plomb-acide deviennent viables
De nouvelles solutions émergent pour consolider le maillon faible des systèmes d’alimentation de datacenter, à l’heure où les opérateurs cherchent à réduire l’encombrement, le poids et le coût total des batteries au plomb étanche (VRLA) traditionnelles. Une de ces alternatives est la batterie à lithium-ion. Avec des prix en baisse et des progrès continus tant sur le plan chimique qu’au niveau de la construction, les batteries lithium-ion deviennent une option envisageable pour le datacenter et gagnent en envergure pour satisfaire les besoins d’une rangée, voire d’une salle entière. Cette technologie de batterie est disponible depuis un certain temps mais sa baisse de prix stimule les premiers efforts de commercialisation auprès du secteur des datacenters.

Les opérateurs de datacenter s’intéressent depuis longtemps aux alternatives aux batteries plomb-acide, mais les technologies disponibles ne pouvaient pas rivaliser avec le rapport qualité-prix et la capacité de stockage des batteries traditionnelles. Aujourd’hui, des alternatives émergent avec un encombrement réduit, et une meilleure durabilité.

6. La conception et le déploiement du datacenter sont de plus en plus intégrés
L’intégration technologique s’est accrue dans l’espace du datacenter au cours de ces dernières années. Les opérateurs sont en effet à la recherche de solutions modulaires et intégrées rapides à déployer, faciles à faire évoluer et efficaces sur le plan de l’exploitation. Aujourd’hui, cette philosophie s’applique également au développement du datacenter. Le délai de commercialisation est l’un des moteurs clés pour les entreprises qui développent l’essentiel des capacités de datacenter aujourd’hui, et ces acteurs considèrent désormais que les silos traditionnels qui séparent l’ingénierie de la construction sont à la fois encombrants et contre-productifs. Ils adoptent par conséquent une approche clé en main de la conception et du déploiement du datacenter, qui s’appuie sur des concepts modulaires et intégrés, une construction hors site et une gestion structurée des projets. Les fournisseurs qui réunissent expertise des infrastructures, capacités de conception et d’ingénierie, et gestion de projet sophistiquée pour produire des solutions clé-en-main peuvent monter des datacenters plus performants, et ce plus rapidement.

« Pour les entreprises qui cherchent à rester compétitives tout en adoptant sans rupture les nouvelles technologies cloud, la solidité de l’infrastructure informatique reste la pierre angulaire du succès », explique Monsieur Albertazzi. « Avec l’augmentation rapide des volumes de données, les infrastructures informatiques continueront d’évoluer en 2017 pour offrir des services plus rapides, plus sûrs et plus efficaces afin de répondre aux nouvelles demandes. Il est plus que jamais essentiel d’investir non seulement dans une nouvelle infrastructure, mais surtout dans celle qui sera adaptée. Il faut donc faire appel à un partenaire possédant une grande expérience des opérations de datacenter et de l’impliquer tout au long de la transformation du système, de la planification à l’optimisation en passant par la conception, la gestion de projet et la maintenance continue. »


Voir les articles précédents

    

Voir les articles suivants