Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Quelles tendances pour le stockage en 2020 ?

janvier 2020 par Gabriel Ferreira, Directeur technique France, Pure Storage

Si la croissance du marché du stockage s’est ralentie en 2019 par rapport à 2018 selon IDC, les prévisions sont plutôt prometteuses pour 2020. À mesure que les entreprises opèrent la transition de leur architecture vers le cloud, qu’il soit multi ou hybride, leurs besoins en accompagnement ne faiblissent pas. En effet, le passage au cloud nécessite une bonne gestion de l’hybridation des systèmes, avec l’aide de solutions adaptées à cette migration. Quelles seront les tendances en matière de stockage qui permettront aux organisations de tirer pleinement profit de leur infrastructure ?

Les clients demanderont des abonnements à l’innovation via des modèles « as-a-Service »

Les modèles « as-a-Service » existent depuis les prémices du cloud public. Pour la plupart des consommateurs de services de stockage, le cloud hybride est à la fois la réalité et l’avenir. Ils veulent pouvoir combiner les avantages des deux solutions : renforcer la simplicité et l’automatisation de leur infrastructure sur site pour la gérer comme si elle était sur le cloud, et calquer sur le cloud les mêmes capacités métier et de contrôle dont ils profitent via leur système sur site, le tout sous la forme d’un modèle « As-a-Service » flexible et par abonnement. En 2020, les besoins en stockage « as-a-Service » augmenteront et les entreprises devront donc mettre la main au portefeuille en investissant davantage dans des modèles OPEX qui assureront un équilibre parfait entre opérations et achats. Côté opérations, les attributs clés comprennent notamment la standardisation (par opposition aux solutions ad hoc), l’accès à la demande, la gestion pilotée par API et une évolution illimitée. Côté consommation, les caractéristiques clés incluent le modèle de paiement à l’utilisation, les capacités de bursting (flexibilité ascendante/descendante selon les besoins), une expérience et des services évolutifs et sans interruption, via un service OPEX avec forfait mensuel.

La réémergence du stockage objet

Le stockage objet a cassé son image de stockage à froid bon marché et gagne en popularité en tant que stockage primaire. Originellement conçu pour prendre en charge la gestion d’ensembles de données très larges (au-delà de ce que les systèmes de fichiers traditionnels pouvaient gérer), le stockage objet est devenu le standard du stockage pour les applications natives cloud, grâce à ses capacités à gérer des demandes d’accès simultanées et distribuées à des grands ensembles de données. À mesure que des applications sont développées ou refondues pour des architectures compatibles avec le cloud, le stockage objet sera de plus en plus adopté pour dissocier les applications et leurs ressources informatiques d’un pool de stockage partagé. Cette tendance s’amplifie non seulement dans les développements logiciels personnalisés, mais aussi chez les grands éditeurs de logiciels tels que Splunk et Vertica.

L’analytique moderne a atteint son plus haut sommet

L’analytique moderne est en pleine explosion : elle est désormais disponible dans des formats plus abordables (processeurs plus puissants ou infrastructure basée sur la consommation), sur site ou dans le cloud, et avec une mémoire flash plus économique. Soulignons la croissance importante des plateformes d’analytique en continu, qu’elles soient Open Source (Apache Flink, Apache Beam et Spark Streaming) ou propriétaires (Splunk DSP), et qui remplacent de plus en plus les plateformes de traitement par lot. L’analytique moderne a aujourd’hui une plus large portée grâce aux architectures analytiques natives cloud, composées de conteneurs, de serveurs « stateless » et de magasins d’objets S3 hautes performances. Qui plus est, la croissance déchaînée des sources de données, y compris des appareils intelligents (domotique, objets portables intelligents, voitures connectées, internet industriel, etc.), induira l’adoption de l’analytique moderne pour transformer les données en enseignements.

Le flash tente l’impossible avec des supports nouvelle génération tels que le QLC

Depuis son introduction, le flash a été massivement attribué aux applications de niveau 1, grandes consommatrices en ressources. Mais grâce aux nouvelles technologies de stockage flash telles que la mémoire SCM et le QLC, qui sont désormais disponible en ligne et stratifient la mémoire, le flash a toutes ses chances d’exploser et de prendre en charge de tous nouveaux types de données. Une fois combinées à la SCM et à des protocoles haute vitesse (NVMe-oF), les baies de stockage partagées peuvent aujourd’hui fournir aux applications les plus sensibles à la latence des performances similaires à celles d’un stockage sur serveur. Cet ensemble d’applications, qui pose encore problème aux architectures DAS, peut désormais être résolu. Ainsi, il est possible de bénéficier de hautes performances et de services de données riches (protection des données, réduction des données, etc.) offerts par le stockage partagé. En parallèle, l’introduction imminente du QLC permet au flash d’intégrer des niveaux qui étaient jusque-là largement réservés aux disques magnétiques. Une telle réduction des coûts permet à toutes les applications de bénéficier de tous les avantages du flash : performances, simplicité, fiabilité ainsi que la réduction de l’espace et de l’empreinte énergétique dans le datacenter.

L’IA passera d’un rôle de conseiller à celui d’automate puisque les clients veulent une approche « main libre »

Les entreprises accepteront de plus en plus que l’IA prenne des décisions à leur place. Les clients veulent définir des politiques et déléguer leur mise en œuvre aux fournisseurs, ce qui est partiellement due par la nature déclarative de Kubernetes et de la gestion des conteneurs. La simplicité des conteneurs permettra aux entreprises de définir un état, dont les conteneurs seront les catalyseurs. La technologie devrait alors produire et fournir des informations à l’échelle de l’environnement dans sa globalité. L’IA aura pour rôle de trouver efficacement où le modèle prédictif connaît ses moindres performances et d’en améliorer les données. Il est essentiel pour les applications d’IA (détection d’anomalies, analyse automatique des causes racines, par exemple) d’évoluer et de s’adapter à davantage de contextes.

Les conteneurs gagnent en popularité, ce qui entraîne le développement d’options pour le stockage permanent

Les conteneurs ont été élaborés pour simplifier et réduire au maximum les coûts du déploiement d’applications « stateless ». Mais suite à l’émergence de Kubernetes et à la promotion des conteneurs par VMware, l’utilisation de ces derniers dans des applications populaires s’amplifie à un rythme soutenu. Il est donc essentiel de leur fournir un stockage permanent, afin de permettre la refonte des bases de données et d’applications concernées. 2020 sera l’année où la plupart des entreprises feront évoluer leurs plateformes cloud privées et hybrides au-delà des VM, en déployant une stratégie de conteneurs à grande échelle. Elles se doteront d’un socle de stockage permettant aux applications stratégiques « stateful » d’utiliser ces derniers.


Voir les articles précédents

    

Voir les articles suivants