Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

7 mythes sur l’hyper-convergence

décembre 2016 par Mike Uzan, Évangéliste du stockage chez Kaminario

Mike Uzan explore et balaie ici les idées reçues autour de l’hyper-convergence et du stockage pour dresser une image factuelle de cette industrie en pleine mutation, de ses avantages et de ses challenges à l’aune de l’année 2017.

Mythe n°1 : L’informatique « sera à la mode »

De nombreuses entreprises étudient en détail des solutions d’hyper-convergence, mais au final se cantonnent à une approche à trois niveaux (traitement / réseau / stockage) pour les raisons suivantes :
 Elles veulent éviter d’être verrouillées par un seul fournisseur (un seul fournisseur pour le traitement, le réseau et le stockage).
 Le retour sur investissement (coût d’exploitation) promis n’est pas réalisable et ne se matérialisera jamais.
 Elles veulent être en mesure d’évoluer en termes de capacités (« scale-up ») et de traitement (« scale-out »), indépendamment.
 L’approche non hyper-convergente utilise toujours les tous derniers composants (traitement / réseau / stockage), tandis que l’approche hyper-convergente exige la qualification de l’ensemble à la fois et prend beaucoup plus de temps à commercialiser.

Mythe n°2 : Les charges de traitement seront évolutives

L’évolutivité d’une application n’est pas seulement une question d’infrastructure, même s’il s’agit d’anciennes applications (et non modernes) :
 Pour être évolutive, une application doit être développée sous forme d’application évolutive (c’est-à-dire reposant sur des composants capables de traiter de forts volumes tels que Hadoop / No-SQL / Distributed FS / etc.).
 Ce n’est vrai que lorsque l’entreprise adapte une charge de traitement sur un système qui n’a pas besoin d’être local (localité du stockage).

Mythe n°3 : Choisir l’hyper-convergence pour faire face à la croissance des charges de traitement

La gestion de la croissance de toutes les charges de traitement est complexe car elle dépend des besoins de chaque application. Cela ne peut donc être planifié que :
 Si il est possible de prédire ce dont les applications visées auront besoin dans les cinq prochaines années (traitement / réseau / stockage / les trois) ?
 Si l’évolutivité en terme de traitement est suffisante (l’hyper-convergence ne permet pas une approche d’évolutivité en terme de capacité).
 Si l’application a été développée sous forme d’application évolutive (voir le mythe n°2).

Mythe n°4 : Un gain de temps pour gérer ses machines virtuelles ?

Tel est l’argument de poids utilisé par tous les fournisseurs d’hyper-convergence pour justifier de tout remplacer :
 L’hyper-convergence n’est pas « magique ». Une machine virtuelle reste une machine virtuelle et doit être administrée (antivirus, correctifs, etc.).
 Des solutions d’orchestration sont déjà disponibles pour les environnements hyper-convergents (intégrés) et les instances de routage virtuel traditionnelles (DRS / autres...). L’hyper-convergence ne réinvente pas la roue...
 L’équipe de virtualisation, chargée également de la gestion du réseau et du stockage (grâce à l’hyper-convergence) devra tout de même gérer les problèmes du réseau et du stockage au lieu de gérer des machines virtuelles.

Mythe n°5 : L’entreprise réduira ses ressources dédiées au management de cette infrastructure

La seule façon de réduire les ressources (informatiques ou autres) consiste à séparer les ressources par type puis évaluer la taille de chaque ressource dont l’entreprise a besoin (traitement / réseau / stockage) :
 L’hyper-convergence ne pouvant évoluer qu’en termes de traitement, toutes les dimensions doivent être identiques Si l’entreprise n’a besoin que de stockage, elle devra inclure des ressources pour le traitement et le réseau, et ainsi de suite
 L’ajout de ressources signifie que toutes les ressources doivent évoluer (« scale-out »), et que beaucoup d’entre elles risquent d’être mal ou pas utilisées

Mythe n°6 : L’hyper-convergence facilite la réactualisation du matériel

La réactualisation du matériel se fait dans 3 situations :
(1) Lorsqu’il est amorti, (2) En fin de vie/support, (3) Lorsque les applications d’entreprise applications ont besoin de nouvelles technologies (CPU / mémoire, etc.)
 L’entreprise doit attendre que son fournisseur d’hyper-convergence prenne en charge les tous derniers serveurs et plates-formes
 Les nouveaux nœuds seront-ils compatibles avec ceux qui existent déjà ?
 Le stockage hyper-convergent distribué est-il toujours efficace lorsque d’anciennes et de nouvelles technologies sont combinées ?
 L’entreprise est totalement dépendante de la compatibilité matérielle

Mythe n°7 : L’hyper-convergence est moins chère que le stockage traditionnel

L’énorme potentiel de l’hyper-convergence réside dans le remplacement des petites et moyennes baies de disques à usage général dans des environnements hautement virtualisés.
 Dans le cas de grands déploiements d’applications critiques qui nécessitent un comportement prévisible et une fiabilité éprouvée, l’hyper-convergence peut être moins efficace.
 Une fois que tous les facteurs d’utilisation des capacités et les facteurs de coûts sont pris en compte, les déploiements en flash ou hybrides modernes sont susceptibles d’être plus économiques à long terme.

En résumé : L’infrastructure hyper-convergente est parfaite pour les déploiements de succursales, l’informatique virtualisée à 100 % et les petites infrastructures. Dans une grande entreprise, l’approche traditionnelle (ou convergente) reste préférable en termes de coût total de possession, de résilience et de performance.


Voir les articles précédents

    

Voir les articles suivants