Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Le datacenter en 2017 : L’année du Cloud et du changement

janvier 2017 par Nutanix

Le marché des datacenters, qui a progressé historiquement, prudemment, devrait faire face à de grandes évolutions dans les 12 prochains mois avec de plus en plus de DSI qui optimisent les technologies et les produits entreprises dont elles ont besoin.

Si on analyse les tendances à venir, on peut s’attendre à une progression continue dans la virtualisation des applications, la simplification des environnements existants, et la poursuite de cette course sans fin qui vise à améliorer la performance et la capacité de stockage. En parallèle, on peut voir émerger une tendance qui tend à reconnaître plus largement le rôle stratégique que joue le cloud public dans la transformation digitale des entreprises. Ceci présente indéniablement de nouveaux défis pour les services informatiques. Le Big Data, l’Internet des Objets, le process automation et d’autres technologies seront de plus en plus perçues comme essentielles pour la pérennité de l’entreprise numérique.

Parce que la donnée est clé

Un des plus grands changements qui devrait marquer 2017 sera basé sur l’éloignement de la puissance computationnelle pour se rapprocher de la notion de stockage de l’équation qui est en grande partie tirée vers l’avant par des applications Big Data et le raz de marée des outils d’analyse de données qui a commencé à inonder les centres de données en 2016.

Côté hardware, ce phénomène va contribuer à accélérer la course déjà rapide vers une domination de flash par rapport au stockage magnétique conventionnel. Les entreprises adoptent des architectures 100 % flash pour améliorer leur performance et éliminer les silos. 2017 verra également le lancement sur le marché de diverses nouvelles technologies disruptrices, telles que NVMe et 3D XPoint, toutes deux capables de fournir de la donnée à vitesse égale à du DRAM mais à des coûts se rapprochant plutôt du Flash.

Il est clair que ces évolutions vont mettre un certain temps avant de devenir plus courantes, mais elles promettent d’ores et déjà d’améliorer considérablement les performances de stockage et l’agilité tout en contribuant à réduire les coûts opérationnels. Cela va indéniablement permettre aux entreprises d’imaginer de nouveaux cas d’utilisation de stockage créatif, pour aider à piloter leurs activités vers l’avant. Ces évolutions vont aussi permettre le développement de la nouvelle génération de solutions de stockage pour répondre au besoin croissant de ressources de stockage distribuées capables de stocker la donnée aussi près et facilement accessible que possible sans perte de performance, de contrôle ou bien encore de sécurité.

Avec cette vague de changements à l’horizon, une des victimes de ce nouveau virage risque d’être le Storage Area Network qui était pourtant une dominante à cause de la disponibilité croissante d’alternatives plus adaptables et sans les coûts de gestion liés à l’approche SAN. Une disponibilité accrue et une compréhension plus large des avantages du data analytics dans le datacenter vont aussi jouer un certain rôle et nous pouvons nous attendre à voir de nouveaux outils émerger pour mieux équilibrer les charges de travail informatiques et de stockage mais aussi automatiser la gestion du processus sur diverses plateformes.

La fin du data center ?

Les diverses plateformes que l’informatique des entreprises va devoir adopter inclura de plus en plus la dimension du cloud public. Pour certains, cela signale la fin du centre de données entreprise tel que nous le connaissons. En effet, la complexité de création et de gestion d’une infrastructure sur site va excéder la capacité de gestion du service informatique. Cependant, il est peu probable que l’entreprise abandonne le data center sans combat et il existe aujourd’hui des signaux clairs concernant une approche alternative hybride qui devrait non seulement émerger en 2017 mais aussi devenir de facto la norme standardisée pour l’It des entreprises.

Actuellement, les fournisseurs ont bel et bien identifié cette nouvelle tendance. Même Amazon, qui avait, il fut un temps déclaré que nul n’avait besoin d’un data center sur site, a fait marche arrière et a révisé sa position sur le sujet. Il est en effet plus facile de migrer et d’équilibrer la charge entre domaines public et privé. Les autres fournisseurs (menés par Nutanix) intègrent les technologies de cloud public dans leurs produits afin de permettre aux entreprises de tirer pleinement parti des capacités de scalabilité instantanée et du modèle économique pay-as-you-use qu’offre le cloud public, sans pour cela renoncer à la propriété, le contrôle et la sécurité qu’offrent les solutions alternatives sur site.

Vers l’informatique utilitaire

Finalement, quand on se projette vers l’avenir, il existe des faisceaux lumineux qui pointent vers des initiatives qui sont prises pour s’attaquer à la complexité inhérente à l’approche hybride, que ce soit au niveau de l’infrastructure, de l’application ou du niveau d’activité business.

D’un point de vue infrastructure, les technologies de virtualisation appliquées avec succès à la gestion des ressources informatiques s’étendent maintenant au stockage et à la mise en réseau. Clairement, les produits et technologies technologies disponibles mûrissent rapidement, et 2017 devrait être l’année où le data center défini par le logiciel (SDDC) devient enfin une réalité.

Il y a eu des véritables pas de géants en ce qui concerne la gestion de la charge des applications et, en tirant parti de l’analyse de données, ceci a abouti au développement d’outils d’automatisation sophistiqués pour les entreprises. C’est peut être le commencement d’une nouvelle ère - l’ère, tant attendue, des installations pour l’IT des entreprises. Ces nouveaux outils permettront aux organisations de définir en termes d’objectifs business clairs, les politiques par lesquelles elles veulent que leurs systèmes numériques soient surveillés, gérés et mesurés. Au delà, ils pourront même être exécutés par des logiciels intelligents quelles que soient les plateformes - que ce soit dans un data center sur site, sur clouds privés ou services de cloud public - pour délivrer l’IT que les entreprises veulent, où et quand elles en ont besoin.


Voir les articles précédents

    

Voir les articles suivants