Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

“Gestion des données dans le cloud ” Mythes et réalités, potentiel et limites, vérité des coûts

mai 2021 par Marc Jacob

Pour cette nouvelle session du Club de la Presse Informatique B2B, le thème choisit a été “Gestion des données dans le cloud ” Mythes et réalités, potentiel et limites, vérité des coûts... Bases de données, datawarehouse, environnement de développement, sécurité, obligations réglementaires, performances, gouvernance… Comment rester aligné ? Ce débat a été animé par Sébastien Masson, administrateur de bases de données au CERN (Centre européen de la recherche nucléaire), Philippe Wojcik, directeur Cloud Engineering chez Oracle France, Cédric Baudoin, senior manager chez Accenture, Stéphane Arnaudo, manager Cloud Infrastructure chez NetApp, Laurent Garcia, responsable Service Providers EMEA chez Cohesity, Patrick Rohrbasser, directeur Europe du Sud & Afrique chez Veeam et Bruno Buffenoir, directeur France et nord-ouest de l’Afrique chez Nutanix.

José Diz

José Diz, l’animateur du Club de la Presse Informatique B2B en préambule explique que le débat est centré sur la gestion des données dans le cloud public. Aujourd’hui, utiliser le cloud pour héberger des bases de données ne pose plus de problème aux entreprises. Tous types de données sont mis dans le cloud ainsi cela pose le problème de l’accessibilité, de la sécurité, de la compliance… Ce nouveau mode de déploiement nécessite sans doute de nouvelles compétences pour les gestionnaires de base de données.

Sébastien Masson, administrateur de bases de données au CERN a débuté ce débat en présentant le CERN et ses activités. Il est administrateur pour des bases de données Oracle principalement. Le CERN est un laboratoire de physique créé en 1954. Il est actuellement en phase de découverte et d’appréciation du Cloud pour savoir quel type de bases de données il pourra l’utiliser. Il a toutefois une première expérience d’utilisation du Cloud public qui a rencontré un certain succès.

Le cloud public en plein développement

Cédric Baudoin, Accenture, spécialisé dans les bases de données, constate une accélération de la mise de la data dans le cloud. Le premier point fort est l’agilité et la souplesse qui permettent de facilité les expérimentations en réduisant les coûts. De plus, ces déploiements réduisent les délais qui étaient dans le passé de plusieurs heures à plusieurs jours suivant le cas. Aujourd’hui, il ne faut souvent que quelques minutes ou quelques secondes. Selon Philippe Wojcik, directeur Cloud Engineering chez Oracle France, les modèles d’options de base qui sont très larges permettent d’obtenir un service catalogue pour qu’ en quelques clics on peut créer sa base de données sur mesure. Sans compter que ces déploiements automatisés permettent d’éviter des erreurs humaines. Effectivement, reprend Cédric Baudoin, Accenture, les administrateurs vont pouvoir se concentrer réellement sur la base de données et faire des expérimentations plus rapidement. Pour Laurent Garcia, responsable Service Providers EMEA chez Cohesity rappelant le rapport récent réalisé par sa société sur l’évolution des budgets informatique sur les années 2020 à 2022, on doit s’attendre à une baisse prévisible des budgets informatique, ainsi le cloud avec ses déploiements à l’usage sont un point fort.

José Diz pose la question de la sécurité pour la mise dans le cloud des bases de données

Cédric Baudoin, Accenture, considère que les clients ont réfléchi au type de données qu’ils souhaitent déployer dans le cloud. Ainsi, ils ont mis en place des mécanismes technologiques pour assurer la sécurité et la confidentialité des données.
Pour sa part Patrick Rohrbasser, Veeam explique que son entreprise aide ses clients à assurer la sécurité et la résilience. Toutefois, il rappelle que les clients doivent choisir des options pour qu’ils bénéficient des bons niveaux de services en particulier en ce qui concerne les sauvegardes.
Cédric Baudoin pour sa part explique que le Cloud doit être dimensionné en fonction des besoins et des types de données que l’on veut déployer. Les entreprises doivent avoir une gestion des clés et des certificats adaptés. Il faut donc une gouvernance de données et de gestion des clés. Souvent, il est préférable pour les clients l’externaliser car bien souvent cette gestion sera mieux faite qu’en interne. Selon Philippe Wojcik, Oracle France, son entreprise propose des technologies de stockage des clés qui peuvent de ce fait rester chez le client via un boitier HSM. Concernant la latence, la solution souvent provient du multi-cloud grâce à une approche Top Down en utilisant des hébergeurs et des opérateurs. Par exemple, chez Oracle, on propose des interconnexions multi-cloud afin de réduire les temps de latence via Azur par exemple. Aujourd’hui, les déploiements en multi-cloud peuvent se faire en 15 minutes.

Bruno Buffenoir, Nutanix considère que les clients souhaitent construire un environnement qui leur laisse le choix pour des raisons règlementaires, de sécurité, d’aides techniques… En effet, ils sont confrontés à des environnements différents qui demandent donc des compétences variées, d’où la nécessité d’avoir des contrôles commandes centralisés pour consolider les systèmes.

José Diz : est-ce que le coût est attractif sur le long terme ?

Selon Patrick Rohrbasser, Veeam, cela dépend des cas. Mais on regarde souvent sous l’angle du coût au lieu de considérercelui de la compétitivité, de la conquête de marché, de développement…

Est-ce à dire que l’on ne peut plus se développer sans le cloud ?

Stéphane Arnaudo, NetApp rebondit en expliquant que c’est pour cela que bon nombre d’entreprises utilise des cloud hybrides. Philippe Wojcik, Oracle France rebondit en montrant que le fait de proposer des catalogues de services à partir de Paas, d’IaaS dans le cloud public privé… permet d’adapter ses coûts.

José Diz : Pourquoi au CERN avez-vous décidé d’utiliser le Cloud public ?

Sébastien Masson, CERN : « Nous avons eu un cas de développement d’une application pour des journées portes ouvertes afin de déployer très rapidement une application de réservations. Nous avons eu aussi un exemple de « disaster recovery » dans le cloud pour prendre le relais avec une application synchrone. En termes de coût cela est assez difficile à estimer car nous avons de nombreuses infrastructures dont un data center. Par contre au niveau du Cloud, nous nous sommes rendu compte que nous avions besoin de moins de puissance pour nos machines car elles restent en « stand by » lorsqu’elles ne sont pas utilisées. »

José Diz : Comment cela se passe pour vos partenaires ?

Pour Laurent Garcia, Cohesity, on voit depuis un certain nombre d’années des prestataires qui ont investi sur des certifications. D’autres se sont créés et ont pris le parti de ne pas avoir de data center mais on investit sur tous les grands provider comme AWS, MICROSOFT, Alibaba…
Patrick Rohrbasser, Veeam remarque que les prestataires ont un profil très large qui va de PME qui vont s’appuyer sur des services provider importants à de grands groupes. Ces derniers proposent des services de plus en plus larges. De plus la nature du service évolue pour les prestataires avec plus de conseils, de l’organisation du design… Sans compter que l’on se trouve aussi dans une phase de consolidation.

Cédric Baudoin, Accenture explique que l’on a les mêmes problématiques qui restent mais qui vont s’accentuer sur la sécurité, la rapidité de déploiement, avec pour certain une consolidation mais aussi une nécessité de développer de nouvelle compétence.

Pour Stéphane Arnaudo, NetApp, les partenaires développent de plus en plus de manage services. Philippe Wojcik, Oracle France voit deux types de partenaires : des grandes entreprises et des partenaires spécialisées sur des niches comme la sécurité par exemple. Côté clients, ils évaluent les entreprises pour obtenir de meilleurs coûts et toujours plus de services. Oracle recherche toujours plus de partenaires pour adresser des « niches players ».

José Diz : Comment les données sont arrivées sur le Cloud ?

Cédric Baudoin, Accenture, rappelle que les données sont arrivées sur le cloud par tous les applicatifs comme les données RH, Saleforce… Certains métiers commençaient à expérimenter des applications dans le cloud afin de tester en utilisant leurs cartes bleues. Après des tests concluant, les métiers ont démocratisé cette démarche dans leurs entreprises. Aujourd’hui, les technologies cloud facilitent ces déploiements.

José Diz : Une données est copiés entre un et sept fois cela pose-t-il des problèmes ?

Sébastien Masson, CERN : "Effectivement, les données sont répliquées plusieurs fois, entre le besoin de réplications, de sauvegarde. Pour l’instant nous n’avons pas réellement ce problème."

José Diz : La duplication n’est pas une priorité semble- t-il ?

Effectivement, reprend Patrick Rohrbasser, Veeam, la duplication n’est pas le problème majeur c’est plutôt la sécurité, la compliance… Par contre, il faut savoir que le coût des copies est de 56 millions de $ et que les copies utilisent 40% du temps du management de la base de données. De plus les clients ont besoin de plus en plus de copies pour des questions règlementaires et d’usages. Le fait de se poser la question de mettre des bases de données dans le cloud provient d’un problème d’augmentation leur taille. Ainsi, le cloud public est une des solutions. De ce fait, la majorité des clients travaillent pour savoir si les coûts sont intéressants.

José Diz : Comment fait on pour déployer dans le cloud public de façon sécurisé ?

Laurent Garcia, Cohesity, explique que les technologies existent dans le cloud privé, il s’agit de l’appliquer dans le cloud public. Quelques soit, les sites il faut mettre du chiffrement, de la redondance…
Effectivement, reprend Patrick Rohrbasser, Veeam, en revanche, il faut aussi faire de la R&D pour anticiper les besoins de demain. Quand on parle de protection dans le cloud public il faut renforcer la sécurité et la partie réglementaire avec des infrastructures de type Kubernetics. De plus, il faut des temps de réplication très faible car les règlementations demandent de repartir très vite et de façon très saine.

Stéphane Arnaudo, NetApp, explique que ces clients souhaitent être sur l’ensemble des Cloud et de le faire avec les mêmes outils. De plus, il faut des outils pour mesurer les coûts en temps réel afin de pouvoir éventuellement changer de cloud en fonction des coûts.

Selon Philippe Wojcik, Oracle France, on tend vers une approche multi-workflow afin de faire ce qu’on l’on veut dans la base. On a donc besoin que la donnée soit disponible sous de multiple format.

Bruno Buffenoir explique que Nutanix, propose une homogénéisation des bases avec un console centralisée quelques soit l’environnement auquel on accède afin de construire un seul et même service. Cela permet de donnerdes choix au client.

José Diz : Cédric ces interfaces suffisent ou faut-il un travail amont ?

Cédric Baudoin, Accenture, explique que la donnée explose littéralement en termes de volume. Par contre, comment gérer les bonnes données ? Les règlementations ont permis aux clients de reprendre en main leur donnée et de mieux les gérer. Pour cela, des technologies existent mais elle nécessitent un travail préparatoire pour mieux connaitre la donnée.

José Diz : Comment faire pour faire évoluer les administrateurs de base de données ?

Sébastien Masson, CERN considère que les compétences des administrateurs est une aide précieuse pour comprendre ce qui se passe dans le Cloud. C’est sur la gestion des clés qu’il y a des nouveautés à appréhender.

Pour Philippe Wojcik, Oracle France, c’est les mêmes technologies entre le cloud et les systèmes traditionnels par contre, on a de nouveaux métiers qui se créent comme ceux autour de la présentation de la donnée, de la gestion…


Voir les articles précédents

    

Voir les articles suivants