Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Pourquoi les organisations peinent-elles à se virtualiser ?

juillet 2017 par INFINIDAT

Les organisations font face à des problématiques d’efficacité, de réduction des coûts et d’optimisation de leurs ressources. Pour répondre à ces enjeux, beaucoup pensent à la virtualisation. Plus elles sont virtualisées, plus elles seront flexibles, leur permettant ainsi de partager les ressources et les coûts entre plusieurs entités. Pour atteindre un maximum de flexibilité, nombreuses sont celles qui donc souhaitent devenir 100% virtualisées.

Dans les faits, force est de constater que la plupart ne le sont qu’à 75% voir 85%. On constate même qu’une fois virtualisées, certaines applications sont moins performantes. Est-ce un manque d’allocation de budget ? Si non, quels facteurs freinent cette transformation en profondeur de ces entreprises ? En analysant certaines grandes entreprises, on se rend compte que les enjeux dépassent largement les questions de budget. Les problèmes sont très souvent dus à des infrastructures vétustes, empêchant la virtualisation totale des organisations.

Au cours de la précédente décennie, les entreprises se sont concentrées à transformer les ressources physiques en ressources virtualisées via une pléthore de technologies : serveurs, solutions de stockage, réseaux, applications, etc. Les chantres de la virtualisation qui n’arriveront pas à atteindre les niveaux de virtualisation espérés, n’auront plus qu’à lorgner sur les technologies à venir en espérant qu’elles puissent soutenir leurs efforts. Ces technologies de nouvelle génération s’étendent en gamme de serveurs avec des Teraoctets de RAM, ainsi qu’avec un grand nombre de cores, jusqu’à des plateformes de virtualisation et stockage all-flash pouvant supporter des milliers de machines virtuelles. Néanmoins même avec l’émergence de systèmes hyper-convergés, qui intègrent l’ensemble des données dans une solution unique, les entreprises peinent à virtualiser les 10 à 15% restant de leur IT. Les défis liés à une virtualisation complète sont donc nombreux et obligent les responsables IT et réseaux à repenser leurs environnements.

Repenser complètement son système informatique

En informatique, on a parfois tendance à attendre que les nouvelles innovations technologiques résolvent les problèmes des précédentes. La virtualisation n’est pas en reste car on espère faire plus avec moins de moyens. Aujourd’hui, beaucoup d’environnements sont construits sur des technologies qui datent de 20 ou 30 ans et qui avaient, théoriquement, pour mission de résoudre les défis d’aujourd’hui.

Pour mieux illustrer cette idée, prenons l’exemple du carburateur automobile dans les années 70 et 80. Quand les températures descendent sous un certain niveau ce dernier gèle, impossible de faire rentrer l’air dans le moteur et donc de démarrer la voiture. Une bonne vieille technique vise à se munir d’un long tournevis pour débloquer le carburateur. Heureusement, des années plus tard, le moteur à injection fait son apparition et adieu les problèmes de carburateur ! Dans l’IT au lieu de développer une solution qui réglera ces problèmes une fois pour toute, on a préféré produire des tournevis de plus en plus performants. Conclusion ? On ne peut répondre aux défis actuels avec des outils qui ont été prévus pour résoudre ceux d’hier.

Un autre exemple parfait de cette logique est la technologie RAID inventée en 1987 pour régler les problèmes de disponibilité des données. Des disques de stockages étaient combinés les uns aux autres et un calcul de parité permettait d’assurer l’intégrité des données en cas de panne d’un disque. Ces blocs de stockage étaient souvent partagés sur des machines virtuelles pour augmenter l’efficacité de leur gestion. Quand un disque dur cessait de fonctionner, sa technologie de lecture et écriture de données cessait son activité pour récupérer les informations du disque défaillant et les déplacer sur celui de secours. Cette restauration pouvait prendre une journée, voir plus d’une semaine en fonction des workloads et de la quantité d’informations à récupérer.

Aujourd’hui, les entreprises possèdent plusieurs dizaines de milliers de machines virtuelles et il était primordial qu’elles bénéficient d’une vraie qualité de service et de performance en cas de problème sur un ou plusieurs disques. La récupération doit-être faite dans un laps de temps très court, quelques minutes, avec une restauration faite tout aussi rapidement. Cette approche non déterministe du rétablissement et de la performance a été le fléau des entreprises depuis plus d’une décennie. Ne pas savoir quand un système pourra retrouver ses pleines capacités de performance est aujourd’hui inacceptable. Cela est d’autant plus vrai dans une industrie où les incidents qui impactent la qualité de service, imposent aux fournisseurs de rembourser les paiements pour le service.

Il est donc important qu’une solution de stockage puisse résoudre à la fois les problèmes actuels mais aussi à venir. Il faut en finir avec le bricolage et offrir aux organisations des technologies à la mesure de leurs enjeux et lever les dernières barrières qui les séparent d’une virtualisation à 100%. Pour les départements IT, cela implique le choix d’une plateforme conçue pour répondre à ces prochains défis, tout en veillant à ce que la performance et la qualité ne soient pas impactées en cas de panne d’un composant. Cette réflexion est primordiale pour être totalement virtualisé, avec une garantie de performance, de fiabilité et sans dépassements de budgets.


Voir les articles précédents

    

Voir les articles suivants