Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 

De la Théorie à la pratique











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Diskeeper : Trois points majeurs à ne pas omettre dans votre stratégie de virtualisation

avril 2011 par Diskeeper Europe

La virtualisation est en train de devenir le mantra omniprésent dont tous les services informatiques parlent, lisent les prouesses, ou entendent parler depuis ces quelques dernières années. Le train est bel et bien en marche, et vous savez qu’il ne s’agit que d’une question de temps avant que votre directeur ne s’adresse à vous, en vous harcelant à propos de votre stratégie informatique, et en prononçant gaiement des phrases telles que « ce back-up en nuage m’a l’air intéressant, pourquoi ne pas s’y mettre ? ». Pour couronner le tout, vous devez aussi vous affairer simultanément aux mises à niveau des serveurs, aux migrations, aux appels interminables aux bureaux d’assistance, et à toute une myriade d’autres problèmes généralement difficiles à résoudre.

Il est clair que l’implémentation de la virtualisation de l’intégralité de votre infrastructure informatique n’est pas une chose à prendre à la légère. Voici un résumé très bref, et en aucun cas exhaustif, de ce que cela inclurait :

- Décider quelles machines vous souhaitez virtualiser (intégralement ou partiellement).

- Choisir les exigences matérielles/logicielles basées sur la plateforme virtuelle vers laquelle vous migrez, comme « Hyper-V », « VMware » ou « Xenapp ».

- Bâtir la plateforme en commençant par quelques serveurs/postes de travail et les tester minutieusement - notamment en termes de rendement et de consommation des ressources.

- Créer un back-up adéquat pour la redondance et les défaillances, et configurer des outils afin de suivre et corriger les problèmes de rendement.

Bien sûr, les avantages parlent d’eux-mêmes : une réduction du matériel, une gestion centralisée, des économies d’exploitation et même des avantages environnementaux, ainsi qu’une consommation énergétique moins importante (ou pollution matérielle, comme nous pourrions l’appeler affectueusement). Les ramifications issues de l’implémentation d’un environnement virtuel sont nombreuses. Mais quels en sont les aspects négatifs ?

Toutes les ressources d’une plateforme virtuelle sont partagées, en particulier le matériel sous-jacent (processeur, mémoire, etc.). Les machines virtuelles de l’hôte ne sont pas au courant du partage de ressources des autres invités sur le même hôte, ce qui peut conduire à une compétition entre les machines invitées, lorsque des tâches générales d’entretien comme les analyses AV et la défragmentation sont effectuées simultanément sur toutes les machines. En règle générale, toutes les tâches gourmandes en ressources, si elles étaient lancées sur tous les invités au même moment, affecteraient les performances de l’hôte. Un autre inconvénient est le fait que, dans une plateforme virtuelle, si le rendement d’une machine est affecté, cela affecte cette machine ainsi que toutes les autres qui partagent le même hôte.

Trois points vitaux qui sont facilement omis :

1. Les goulots d’étranglement des E/S et la dégradation du rendement générés par une fragmentation accélérée - à savoir la décomposition d’un fichier en plusieurs morceaux et l’écriture de ces derniers à différents endroits du disque - dans les plateformes virtuelles.

2. Les disques virtuels configurés pour une croissance dynamique ne rétrécissent pas de nouveau quand les données sont supprimées. Au contraire, ils gaspillent l’espace libre.

3. Les machines virtuelles rivalisent pour les ressources E/S partagées et leur utilisation n’est pas efficacement priorisée à travers la plateforme.

Ces obstacles peuvent donner lieu à des machines virtuelles à faible rendement et rendent donc caduque le but même de la migration vers une plateforme virtuelle. La solution consiste à optimiser les systèmes sans conflit des ressources. Supprimer la fragmentation au niveau du système de fichiers entraîne une génération inférieure d’E/S, évitant l’envoi de toutes E/S superflues en excès/divisées vers le sous-système du disque. Des demandes inférieures d’E/S génèrent des standards plus importants de fiabilité et de rendement d’E/S.

« L’un des domaines clés de tout projet de virtualisation efficace est l’optimisation du rendement. Certains ont tendance à focaliser leurs efforts d’optimisation autour du processeur et de la mémoire, mais ne parviennent pas à considérer les effets que les machines virtuelles et la fragmentation des fichiers peuvent avoir sur un environnement virtuel. La défragmentation peut contribuer à résoudre de manière significative les problèmes de latence de disque, et soulager bon nombre des pressions et goulots d’étranglement associés à la consolidation des canaux E/S des disques », a déclaré David Marshall de VMblog.com (http://vmblog.com/)

L’espace disque est une ressource précieuse et tout espace gaspillé dans un environnement virtuel est totalement inacceptable. Un suivi permanent de l’espace utilisé, en particulier dans un environnement dynamique, est nécessaire, et tout espace inutilisé dans les volumes doit retourner dans le groupe disponible pour être utilisé par d’autres machines en ayant besoin.

Un meilleur rendement et une meilleure utilisation de l’espace de stockage sont deux éléments de l’efficacité que promet la virtualisation. Optimiser l’efficacité de ces deux éléments peut entraîner une livraison d’une qualité supérieure à celle que promet la virtualisation. V-Locity, un optimiseur de disque pour plateformes virtuelles, offre une solution complète aux défauts de la virtualisation énumérés ci-dessus.




Voir les articles précédents

    

Voir les articles suivants