Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Prévisions pour l’industrie du stockage en 2021

février 2021 par Gerardo A. Dada, CMO, DataCore Software

Le software-defined storage sera de plus en plus vital pour que l’infrastructure informatique puisse offrir flexibilité et rentabilité.

Le secteur du stockage a été relativement lent à adopter la virtualisation si on le compare à ce qui s’est passé pour la mise en réseau, le calcul et même la sécurité. Une grande partie du secteur reste d’ailleurs encore axée sur le matériel, une vision qui rend les services informatiques prisonniers de fournisseurs, de technologies et d’architectures spécifiques.

Le software-defined storage (SDS) contribuera de façon croissante à rendre le stockage plus intelligent, plus efficace, plus facile à gérer et il préparera les services Informatique à affronter l’avenir. La virtualisation ayant la capacité d’abstraire intégralement le hardware, le SDS est en mesure de gérer, d’optimiser et de simplifier tous les types de stockage : primaire, secondaire, sauvegarde ou archive, le tout sur une même plateforme unifiée (capable de fournir des services cohérents dans les différentes classes de stockage) et gérée sur un unique tableau de bord d’analyse prédictive.

Il s’agit là de la réponse à une demande croissante des responsables informatiques, qui souhaitent bénéficier d’une infrastructure IT modernisée à travers un plan de contrôle uniforme pouvant exploiter tout le potentiel d’une large diversité d’équipements. Le software-defined storage apparaîtra de plus en plus clairement comme la solution idéale pour y parvenir, aidant à abattre les silos et les dépendances matérielles et permettant d’utiliser le stockage de façon plus intelligente, plus efficace et plus rentable. Cette approche permettra de prendre en charge toutes les technologies de stockage de manière cohérente, quel que soit le fournisseur ou l’architecture, et de les déployer sur des serveurs nouveaux ou existants, des appareils prêts à l’emploi ou dans le cloud.

En outre, dans l’environnement économique actuel créé par la pandémie de COVID-19, le SDS s’est avéré être un outil puissant pour aider les services informatique à réaliser des économies et à tirer le meilleur parti de leurs investissements existants. Alors que les dépenses informatiques reprendront leur progression en 2021, le SDS continuera de jouer un rôle important de facteur de réduction des coûts pour les équipes IT en les aidant à obtenir des performances plus prévisibles à mesure qu’elles feront évoluer leurs systèmes.

Les entreprises auront alors intérêt à moderniser et automatiser leurs systèmes de stockage existants en utilisant de manière proactive des technologies de stockage avancées pour stimuler les innovations en matière d’infrastructure. C’est ainsi que le SDS se rendra indispensable à la mise en œuvre d’une infrastructure software-defined moderne qui exploitera au mieux les ressources existantes tout en préparant l’environnement informatique à affronter l’avenir. Dans sa Feuille de route stratégique pour le stockage en 2020, Gartner prévoit en effet que d’ici 2024, 50 % de la capacité mondiale de stockage sera déployée sous forme de software-defined storage, en local ou sur le cloud public, contre moins de 15 % en 2020.

Les besoins en sauvegarde et récupération intelligentes augmentent

2021 verra s’accroître l’utilisation de technologies intelligentes de sauvegarde et de récupération à mesure que la protection des données deviendra de plus en plus cruciale. La sauvegarde est un aspect négligé depuis des décennies, mais à mesure que les volumes de données continuent de croître et deviennent plus distribués, les objectifs de récupération et les complexités opérationnelles augmentent considérablement de façon parallèle. Alors que la sauvegarde et la récupération sont devenues des charges de travail clés, les anciennes méthodes de protection des données doivent s’adapter aux infrastructures modernes ou être abandonnées. La question de savoir comment le faire efficacement reste cependant entière.
Presque toutes les équipes de gestion de datacenters cherchent à élaborer des stratégies et à mettre en place des plans performants de sauvegarde et de récupération après sinistre. Il s’agit de faire face aux imprévus qui provoquent des temps d’arrêt ou des pertes de données et perturbent la continuité d’activité. L’objectif d’une solution de sauvegarde des données, de réplication et de récupération après sinistre devrait être de restaurer les services à l’entreprise avec un RTO proche de zéro. Cela n’est possible que si la solution de protection et de gestion des données présente un haut degré de fiabilité, d’efficacité, de sécurité et de flexibilité lui permettant de répondre aux besoins de l’entreprise et d’accompagner l’évolution de son infrastructure.
Les services informatiques savent bien ce qu’impliquent des copies de sauvegarde fréquentes en termes de capacité de stockage et d’impact sur les performances. C’est pourquoi ils recherchent des moyens optimaux de prendre des snapshots, de les déplacer vers un stockage plus efficace et de réduire les coûts totaux. Dans un même temps, il est de plus en plus reconnu que la valeur des sauvegardes, ou de toute technologie qui favorise la disponibilité, ne tient pas au processus de sauvegarde lui-même, mais à la capacité de revenir à un état sain de façon rapide et efficace.
Dans les environnements utilisant une combinaison variée de matériel de stockage pour traiter les charges de travail virtualisées des applications, il est particulièrement difficile de garantir une sauvegarde rapide et transparente. C’est pourquoi les organisations informatiques continueront de tourner le dos aux anciens systèmes de sauvegarde et de réplication pour leur préférer des solutions plus modernes et plus sophistiquées qui leur permettront de bénéficier de fonctionnalités intelligentes de gestion des données, d’obtenir une plus grande flexibilité et d’améliorer le retour sur investissement.
La classification des données en vue de se conformer aux réglementations sur la protection de la confidentialité conférera davantage de valeur aux métadonnées

Les entreprises possèdent en général des données dispersées un peu partout. De multiples bonnes raisons poussent à agréger ou à regrouper ces données afin d’en créer une vue unifiée sur tous les systèmes. Parmi celles-ci, la nécessité de les classer pour obéir à des réglementations telles que le RGPD (Règlement général sur la protection des données) et le CCPA (California Consumer Privacy Act) devient l’une des plus critiques.

Ces tendances ne font qu’augmenter encore la valeur des métadonnées. Ces métadonnées peuvent être très puissantes, surtout lorsqu’elles sont étroitement intégrées aux données d’un point de vue logique, mais qu’elles en sont découplées du point de vue de l’emplacement, qu’elles sont synchronisées à l’échelle mondiale et disponibles pour tous les types de données (que leur méthode de stockage soit un protocole par objet ou par fichier).

La gestion axée sur les métadonnées fournit les outils fondamentaux nécessaires pour créer des attributs riches pour la boutique de données. Dans le cadre du RGPD, les mots clés et les balises associés aux données peuvent être utilisés pour définir ce qui fait l’objet de privilèges ou ce qui constitue des renseignements personnels. Ils peuvent servir à spécifier si l’information doit rester dans le pays d’origine ou peut être déplacée plus largement, ou encore si les données doivent être chiffrées. Enfin, ils simplifient la recherche des données à supprimer pour se conformer aux lois sur la protection de la vie privée, le tout sans avoir à examiner réellement ces données.

Couplées à des technologies d’intelligence artificielle (IA) et d’apprentissage automatique (ML) ou à des logiciels de télémétrie et de numérisation de contenu, les métadonnées peuvent être enrichies de balises consultables et d’autres attributs précieux basés sur l’emplacement, l’heure, l’utilisation, les caractéristiques des données et autres. Les entreprises peuvent ainsi mieux appliquer les politiques de gouvernance des données en utilisant la gestion des données axée sur les métadonnées.

La gestion des données axée sur les métadonnées pour les fichiers et objets distribués deviendra un élément important des technologies modernes de stockage, en partie parce qu’elle aide à fonder les décisions automatisées sur la valeur des données et l’emplacement à leur attribuer, tout en ajoutant plusieurs dimensions à l’intelligence d’auto-tiering. Le service informatique devra chercher à tirer parti de la prochaine génération d’outils qui le permettent , non pas sous forme de plug-ins ou de logiciels distincts, mais comme une partie intégrante de l’architecture de stockage des systèmes modernes de fichiers et d’objets.

Les cas d’utilisation primaire pour les applications locales sont encore là pour longtemps

Le cloud a d’abord été présenté comme une option de stockage moins coûteuse. L’illusion s’est toutefois rapidement dissipée lorsque l’informatique a commencé à utiliser davantage de ressources en ligne. Les coûts associés ont alors très clairement montré que le cloud n’était pas toujours l’option d’infrastructure la plus rentable.

Aujourd’hui, les entreprises ont rapatrié une partie des données d’infrastructure en local, là où elles peuvent mieux les contrôler et maîtriser les coûts. Pourtant, le cloud offre encore une simplicité, une agilité et, il faut le dire, une rentabilité hors du commun dans de nombreux cas, notamment, peut être, pour le stockage de données sécurisé à long terme.

Les services informatiques savent de mieux en mieux discerner ce qui doit aller dans le cloud et ce qui doit rester en local. Toutefois, cette décision implique souvent soit de passer au cloud, soit de conserver les données sur site, car il s’est révélé très difficile de créer des systèmes véritablement hybrides, notamment dès qu’il s’agit de données. Imaginez un système de stockage de fichiers utilisé pendant des années. Celui-ci contient des millions de fichiers, dont certains doivent pouvoir être immédiatement accessibles et d’autres être archivés, mais supposez qu’il soit presque impossible de déterminer lesquels.

Des outils modernes de gestion des données et un système de software-defined storage englobant une multiplicité de clouds publics ou privés, de déploiements multi-cloud et d’infrastructures locales aideront le secteur à atteindre la maturité. Cela sera rendu possible par un logiciel intelligent capable de connaître le profil des données, d’accéder à ces données n’importe où et donc de les déplacer automatiquement sur la base des règles de l’entreprise.

Le cloud hybride nécessite une hiérarchisation des données plus aboutie

Le modèle de cloud hybride mentionné ci-dessus nécessitera également des outils de hiérarchisation des données plus matures. Ce besoin continuera de croître, Gartner prévoyant également dans sa Feuille de route stratégique pour le stockage en 2020 que d’ici 2024, 40 % des entreprises mettront en œuvre au moins une architecture hybride de stockage dans le cloud, contre 10 % en 2020.

Il existe cependant aujourd’hui très peu d’outils capables de rendre le mouvement vers le cloud transparent et automatique. Ils ont donc surtout pour effet de créer un silo de données supplémentaire dans le cloud. Un système hybride intelligent doit pouvoir déplacer les données depuis ou vers le cloud, selon les besoins, afin d’optimiser les coûts et les performances en fonction des nécessités de l’entreprise, automatiquement et efficacement. Idéalement, les données déplacées vers le cloud sont toujours disponibles. Elles ne sont donc pas « expédiées » vers le cloud, mais hiérarchisées intelligemment tout en continuant d’appartenir au même système logique.

Un système software-defined devient l’élément unificateur de tous les systèmes de stockage, ainsi que la couche intelligente qui contrôle le placement des données de manière optimale. Les fournisseurs capables de combler le fossé entre dispositifs publics et privés seront avantagés.

La flexibilité et les économies de coûts demeurent essentielles à la reprise économique

Bien évidemment, de nombreux projets informatiques ont été mis en attente ou reportés en raison de la pandémie de Covid-19. Bien que les besoins de stockage aient continué d’augmenter (éventuellement encore plus vite avec l’accroissement du télétravail, de l’apprentissage à distance, etc.), les achats et les mises à niveau ont naturellement été retardés, les entreprises cherchant à préserver leur trésorerie et à réduire leurs profils de dépenses. La flexibilité et les économies de coûts, qui sont inhérentes à des technologies telles que le software-defined storage, sont alors apparues comme les meilleurs atouts pour négocier plus efficacement ce changement d’infrastructure imprévu.

Une approche software-defined permet au service informatique de regrouper tout son matériel existant en un grand pool de stockage au sein duquel l’utilisation de la capacité peut être optimisée entre les différents systèmes de stockage. Les plateformes SDS modernes permettent à des fonctions intelligentes d’auto-tiering de déplacer dynamiquement les données vers un stockage plus performant ou moins coûteux selon les besoins. Le Thin Provisioning permet d’utiliser le stockage plus efficacement en faisant le meilleur usage de la capacité existante.

Les meilleures technologies SDS aident à améliorer les performances et à réduire la latence. Elles prolongent la durée de vie des systèmes existants tout en répondant aux besoins de l’entreprise. La possibilité de combiner des systèmes différents pour créer une solution de haute disponibilité peut également être une source d’économies significative.

La capacité du service informatique à gérer son stockage grâce à un unique système intégré, à simplifier l’approvisionnement et à supprimer des tâches manuelles telles que la migration des données se traduit par de très importants gains de temps. Il n’est donc plus aussi nécessaire d’augmenter le nombre de collaborateurs, et les équipes existantes peuvent se concentrer sur des tâches à plus grande valeur ajoutée.

Le SDS peut généralement être acquis avec des licences à durée limitée, ce qui abaisse le ticket d’entrée pour les candidats à l’adoption et permet au service IT de s’adapter à de multiples situations. À mesure que ces avantages porteront leurs fruits, les technologies qui favorisent la flexibilité et les économies continueront de jouer un rôle clé à court et à long terme pendant la phase de stabilisation du secteur.

Passer d’un modèle limité au matériel à un modèle software-defined

De nombreux fabricants de matériel se tournent vers l’édition de logiciels à mesure que la profession se rend compte que c’est en fait là que réside la véritable valeur et que les organisations s’éloignent de plus en plus des solutions qui créent des dépendances vis-à-vis du matériel.

À mesure que cela devient plus clair pour le marché, les entreprises se penchent sur la façon dont leurs solutions d’infrastructure informatique sont déployées et exploitées. Elles veulent savoir, par exemple, si elles sont limitées par les services de données, par le support des divers équipements de stockage, etc.

Les produits de software-defined storage, en particulier, en sont à différents niveaux de maturité. Leur position sur ce spectre influe directement sur la façon dont ils permettent au service informatique de regrouper la capacité sur divers appareils, sous un même centre de commandement, et dont ils offrent la possibilité de faire évoluer librement le centre data center avec un choix de stockage basé sur le coût, les performances, la conformité ou toute autre exigence.

Ces trois types sont les suivants :
1. Les équipementiers de stockage fabriquant des systèmes SAN ou NAS qui prétendent offrir des solutions SDS avec leur matériel. Dans un tel cas, les services de données sont liés à un matériel spécifique ou à une famille d’équipements du même fournisseur.
2. Les plateformes hyperconvergées qui offrent un certain niveau de fonctionnalités SDS. Elles étendent la portée des services de données et d’autres fonctionnalités SDS au sein du cluster HCI, mais sont limitées par l’hyperviseur.
3. Les solutions SDS spécialement créées, neutres vis-à-vis des fournisseurs et couvrant l’ensemble de l’infrastructure de stockage, indépendamment de la taille du stockage, de son modèle ou du modèle de déploiement.

Les vraies solutions SDS permettent aux entreprises de prolonger l’évolutivité, l’agilité et la fiabilité de l’infrastructure de stockage afin d’offrir une couverture inégalée. Du Fibre Channel au NVMe et de la conception classique du stockage à l’hyperconvergence, la demande d’une flexibilité suffisante pour adapter et moderniser le data center sans être prisonnier d’un fournisseur ou d’une technologie matérielle spécifique ne fera que croître. Elle permet aux organisations d’adopter de nouvelles technologies aux côtés des équipements existants afin de tirer le maximum de leur valeur collective, sans délai ni perturbation des services rendus à l’entreprise.

Le marché de Kubernetes se présentera selon deux versions

Alors que l’utilisation de Kubernetes continue d’exploser, le marché se divise de plus en plus entre opérations IT (ITOps) et DevOps.

Les équipes ITOps classiques auront besoin d’aide s’agissant des charges de travail Kubernetes pour les nouvelles applications fonctionnant sur les technologies de stockage d’entreprise existantes. Ces équipes utiliseront un pilote CSI comme interface avec Kubernetes. Ouvrir la voie aux équipes de containers grâce à un pilote CSI est en passe de devenir rapidement la norme. Chaque système de stockage et chaque service informatique se doit d’en avoir un.

L’autre camp est celui des équipes DevOps : des équipes directement utilisatrices du cloud, orientées services et centrées sur la technologie des containers, qui veulent une solution de stockage persistant fonctionnant en natif dans des containers. À mesure que les applications de containers passent des projets expérimentaux à la production, ce segment gagne en maturité dès lors que ses besoins de stockage commencent à refléter ceux des équipes ITOps en matière de sécurité, de disponibilité et de performances, notamment s’agissant des sauvegardes, de la CDP, de la DR, etc. Il est également nécessaire d’améliorer les outils de configuration, de surveillance, de test et de gestion des opérations.

Les principaux fournisseurs de l’espace open source soutenus par le CNCF et offrant des capacités d’entreprise, des outils de gestion et un stockage sécurisé et persistant deviendront plus attrayants pour les équipes DevOps, lesquelles préfèrent une technologie capable d’offrir un déploiement simple et une compatibilité matérielle plus large grâce à l’abstraction.


Voir les articles précédents

    

Voir les articles suivants