Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 

De la Théorie à la pratique











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Peering et data centers centraux : retour sur une tendance forte en passe de devenir un incontournable des infrastructures réseau

juin 2019 par Sami Slim, Deputy Director, Telehouse France

Un phénomène se généralise depuis plusieurs mois : les data centers centraux (core data centers) sont en passe de devenir de véritables leviers de performance qui déterminent de nombreux choix d’infrastructure. Cette dynamique s’appuie sur l’essor du peering. Retour sur cette tendance et sur le rôle central joué par les responsables informatiques.

Pour commencer, distinguons les différents types de data centers. On les ramène à trois grandes familles. Les hyperscalers, qui sont pour la plupart de taille très importante et consomment souvent plus de 200MW de puissance électrique. Ces derniers sont le plus souvent éloignés des villes. Ce sont des data centers à part qui sont pour la majorité utilisés par les GAFAM. Puis viennent les data centers de proximité (EDGE data center), dit périphériques, et proches des centres de production. Ils sont de taille moyenne et permettent à des clients d’avoir leurs propres racks, voir leurs propres salles. Enfin, viennent les data centers centraux (core data centers).

Peu connus du grand public, ils le sont davantage des experts réseaux. Les data centers centraux sont des relais de connectivité. Ce sont de véritables places de marché. Pour le dire plus simplement, ils rassemblent la quasi totalité des acteurs de la chaîne de valeur numérique. Tout l’enjeu est de savoir les identifier, de pouvoir les reconnaître dans le but notamment d’ouvrir un point de présence. Un PoP réseau qui sera hautement interconnecté et qui bénéficiera d’un excellent ROI du fait des économies réalisées grâce aux interconnexions directes.

Habituellement ces trois types de data centers sont organisés en boucle dont chaque maillon a un rôle bien précis dans l’organisation d’une architecture informatique. Généralement, les hyperscalers utilisent les data centers centraux comme relai pour aller au plus proche de leur clientèle. Les data centers de proximité s’appuient également sur ces derniers pour aller chercher du trafic en direct. Il est ainsi courant de voir des acteurs héberger leur applicatif dans un hyperscale, déployer leur IT dans un Edge et assurer un chemin réseau optimisé en créant des liens de peering dans un core data center.

Les data centers centraux ont donc une importance bien spécifique et sont en passe de devenir de véritables leviers de performance qui déterminent de nombreux choix d’infrastructure.

Comment identifier un data center central ? Le plus simple est de consulter les bases de référencement d’acteurs réseaux tels que PEERING DB, et de rechercher le data center qui enregistre le plus grand nombre de membres. Une fois cette opération réalisée, l’analyse peut être complétée de manière simple. Ces data centers ont des éléments différenciants : il y a chez eux beaucoup de membres, ils comptent des équipements réseaux amortis et proposent un nombre conséquent de ports réseaux disponibles. Ceux-ci offrent également un choix d’acteurs extrêmement large qui permet à un demandeur d’avoir la certitude d’être face à une offre correspondant à son besoin spécifique.

Les bénéfices offerts par ces data centers centraux sont nombreux mais c’est dans le peering que réside leur attrait principal. Ce que nous cherchons tous c’est l’interconnexion. Soit en tant qu’utilisateur soit en tant que fournisseur de contenu. Dans un data center central tout le monde est sur le même pied d’égalité : chacun partage de la donnée via une connexion physique d’un point A vers un point B. Quelle que soit la nature d’interconnexion que je vais choisir, peering, interconnexion directe ou transit, je sais que tout le monde est à distance de câble de mon rack : je vais donc bénéficier de ce « clustering effect ». Et l’effet est vertueux : plus un data center central réunit d’acteurs, plus il y a d’interconnexion, moins c’est cher.

Le peering est une tendance forte en passe de devenir un incontournable. En 2017, une étude liée à la mesure du trafic chez les FAI en France publiée par l’ARCEP nous indique que les données échangées sur le territoire sont réparties de la manière suivante : 46% pour le private peering, 50% pour le transit et 4% pour le peering public. Nous avons observé à titre de comparaison ce que nous avions au sein d’un de nos data centers centraux en essayant de reproduire ce schéma et le constat est fort intéressant : nous retrouvons les mêmes ratios mesurés par l’ARCEP dans les statistiques d’interconnexion entre nos clients.

Le plus intéressant est de nous arrêter sur la courbe d’évolution de ces interconnexions dans le temps. Entre 2017 et 2018 nous observons que la part de transit est en train de descendre de manière importante. Le public peering prend de l’essor et le private peering augmente de manière très importante. Ainsi, se dessine une tendance forte des choix des responsables réseaux qui recommandent de passer en direct et de faire du peering.

Découle de cette dynamique trois conséquences principales. La première est que les acteurs du contenu vont se rapprocher au plus près des clients finaux. Ils vont - à court et moyen terme - « bypasser » les hébergeurs et les transitaires. C’est un phénomène que nous voyons par exemple avec Amazon Direct Connect. La seconde tendance est que les transitaires qui voient leur business baisser vont essayer de récupérer sur le maillon CDN les marges qu’ils sont en train de perdre. La troisième, moins importante, est que les FAI eux-mêmes essayeront de se rapprocher du client final en incluant du contenu dans leurs offres.

Nous avons souligné plusieurs fois un point clé : l’avenir des flux est fortement lié aux choix des responsables réseaux qui recommandent de plus en plus de passer du trafic en direct. Dans cette situation, plusieurs bonnes pratiques méritent d’être partagées.

Premièrement, commencer par l’applicatif. Avant de choisir où je vais héberger mon IT, il est nécessaire de s’interroger sur la nature de ce dernier. De quoi parle-on ? Est-ce une application tierce facilement déployable en mode SaaS sur du cloud public ou est-ce un SI industriel qui doit être hébergé sur mes propres machines ?

En fonction de la réponse, je vais organiser mon architecture. L’enjeu étant - comme nous l’avons dit - de créer des accès réseau qui facilitent l’expérience utilisateur et réduisent les coûts. En fonction de leur priorité et du niveau de sécurité requis, les applicatifs seront donc répartis entre Core, EDGE, hyperscale data centers.

Deuxièmement, comment rapprocher l’utilisateur de ces applicatifs ? L’alternative est somme toute assez simple : soit j’utilise du peering ou des interconnexions directes, soit je mets mon applicatif en local au sein de mon data center et je monte un lien réseau privé vers mon utilisateur final.

Le sens de l’histoire semble aller vers une transformation du mandataire IT en acheteur. Les responsables informatiques sont désormais en mesure d’organiser ces choix d’externalisation dans ces trois types de data centers. En répondant à des questions précises - quel est l’applicatif qui doit être hyper connecté ? Quel est l’applicatif qui doit être hébergé au sein de son data center ? Quel est l’applicatif qui peut être hébergé dans un cloud public ? - des enjeux business émergent : comment réduire le coût et le temps de latence pour l’utilisateur ? Comment accroître la sécurité ? …

Nos choix métiers deviennent dès lors des choix business.




Voir les articles précédents

    

Voir les articles suivants