Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Virtualisation : vers une approche logicielle des datacenters

juin 2013 par Damian Saura, VP sales MTI France

La virtualisation des infrastructures IT est en passe de devenir un modèle standard pour les entreprises en quête de davantage d’agilité et d’efficacité, à court comme à long termes. Si bien qu’elles sont de plus en plus nombreuses aujourd’hui à s’intéresser de près à une virtualisation complète de leur datacenter.

Les avantages de la virtualisation sont depuis longtemps acquis et de nombreuses entreprises ont déjà sauté le pas, notamment avec la virutalisation de leurs serveurs. Mais peu d’entre elles ont osé aller plus loin en virtualisant aussi leurs actifs de stockage et de réseaux. Opter pour une virtualisation complète de leur infrastructure semble pourtant apporter aux entreprises, quelle que soit leur taille, des bénéfices substantiels : amélioration jusqu’à 99,999% de la disponibilité de leurs données, simplification de l’administration système, optimisation des performances et de l’efficacité de l’infrastructure, en même temps qu’une réduction significative des coûts d’exploitation.

Disponibilité et flexibilité, piliers des datacenters virtualisés

Un datacenter virtualisé représente à lui seul ce que l’informatique peut produire de plus simple (pour l’entreprise), en réduisant à néant les difficultés liées à la sélection de la bonne infrastructure, du bon fournisseur et de la bonne solution. Autrement, il permet de faire plus avec moins : moins de matériel, moins de dépenses, pour un résultat au moins équivalent.

Le contrôleur logiciel, en étant relié à chaque hyperviseur, permet en effet de maîtriser l’ensemble du SI de l’entreprise à partir d’une seule et même machine. A l’image d’un tableau de bord de voiture qui informe le conducteur de ses niveaux d’huile et de carburant, etc. et l’avertit en cas de dysfonctionnement majeur, le contrôleur centralise la gestion des serveurs, du stockage et du réseau autour d’un pool de ressources IT.

L’ensemble de ces ressources bénéficie par ailleurs d’un niveau de sécurité, de disponibilité et de capacité tel qu’il est en mesure d’assurer la continuité de service, en exploitant tous les actifs de manière optimale. L’intégration d’une politique de temps réel permettant en outre d’éviter que l’infrastructure soit affectée par des montées en charge, des pannes ou des alertes de sécurité.

Les infrastructures virtualisées permettent enfin de tirer parti des technologies émergentes en matière de stockage : mémoire Flash, disque dur SSD, processeurs multi-cœurs ou Ethernet 10 Gb. Un bénéfice dont les entreprises utilisant des systèmes de stockage conçus avant l’invention de ces nouvelles technologies, sont encore privées.

(R)évolution structurelle des datacenters : l’avenir appartient à la virtualisation

L’industrie du stockage connaît sans doute l’évolution structurelle la plus importante depuis ces vingt dernières années. On a vu récemment un grand nombre de jeunes entreprises se lancer sur le marché, parfois avec un soutien financier conséquent. Et beaucoup d’entre elles – essentiellement issues des géants des technologies – ont choisi de capitaliser sur les technologies émergentes des datacenters pour améliorer l’efficacité de leur solution de stockage.

Si on se projette dans le futur, pari est pris que, dans vingt ans, l’archétype du datacenter sera entièrement virtualisé, des serveurs au stockage, en passant par les réseaux. En se libérant des contraintes inhérentes aux ressources physiques, ces machines virtuelles pourront offrir des niveaux de fonctionnalités et de services bien supérieurs.

Ainsi, les intégrateurs doivent aujourd’hui non seulement être capables de sélectionner et d’associer les composants de stockage, de calcul et de réseaux les plus performants, mais aussi avoir une connaissance approfondie de toute la gamme de produits disponibles chez les fournisseurs – comme EMC, Cisco ou VMware – afin d’offrir à leurs clients la solution la plus personnalisée et la plus adaptée à leurs besoins.

Les atouts du Cloud Computing dans une approche logicielle des datacenters

Le fonctionnement « à la demande » des technologies Cloud, en plus de simplifier la vie des DSI et des équipes IT, apparaît comme une évidence pour une entreprise qui cherche à se lancer dans la virtualisation complète de son infrastructure. Le Cloud lui permet en effet de choisir, à partir d’une interface web et par un simple système de cases à cocher, le nombre de serveurs et l’espace de stockage dont elle a besoin. Le contrôleur logiciel sélectionne alors – comme par magie – une combinaison de services sur-mesure et personnalisée en adéquation avec ses besoins. C’en est remarquable de simplicité… à condition toutefois que l’ensemble des actifs de l’entreprise soient virtualisés.

Le Cloud Computing se distingue par ailleurs par sa nature élastique : les clients ne consomment que ce dont ils ont réellement besoin au moment où ils en ont besoin. Les entreprises s’affranchissent alors non seulement d’investissements conséquents d’acquisition d’infrastructure mais réduisent également drastiquement leurs dépenses d’exploitation.


Voir les articles précédents

    

Voir les articles suivants