Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

L’IPU d’Intel est lancé

juin 2021 par Marc Jacob

A l’occasion du Six Five Summit, Intel a dévoilé sa vision de l’unité de traitement d’infrastructure (IPU), un dispositif de mise en réseau programmable conçu pour permettre aux fournisseurs de services de cloud computing et de communication de réduire les frais généraux et de libérer les performances des unités centrales de traitement (CPU). Avec une IPU, les clients pourront mieux utiliser les ressources grâce à une solution sûre, programmable et stable qui leur permettra d’équilibrer le traitement et le stockage.

Comment cela fonctionne : L’IPU est un dispositif réseau programmable qui gère intelligemment les ressources d’infrastructure au niveau du système en accélérant de manière sécurisée ces fonctions dans un centre de données.

Il permet aux opérateurs de clouds de passer à une architecture de stockage et de réseau entièrement virtualisée tout en maintenant des performances et une prévisibilité élevée, ainsi qu’un haut degré de contrôle.

L’IPU dispose d’une fonctionnalité dédiée à l’accélération des applications modernes construites à l’aide d’une architecture qui s’appuie sur les microservices dans le centre de données. Des recherches menées par Google et Facebook ont montré que 22 %1 à 80 %2 des cycles du processeur peuvent être consommés par les frais généraux de communication des microservices.

Avec l’IPU, un fournisseur de cloud computing peut gérer en toute sécurité les fonctions d’infrastructure tout en permettant à son client de contrôler entièrement les fonctions de l’unité centrale et de la mémoire système.

L’IPU permet de :

• Accélérer les fonctions d’infrastructure, notamment la virtualisation du stockage, la virtualisation du réseau et la sécurité grâce à des accélérateurs de protocole dédiés.
• Libérer des cœurs d’unité centrale en transférant les fonctions de virtualisation de stockage et de réseau qui étaient auparavant exécutées en logiciel sur l’unité centrale vers l’IPU.
• Améliorer l’utilisation des centres de données en permettant une organisation flexible des charges de travail.
• Permettre aux fournisseurs de services cloud de personnaliser les déploiements de fonctions d’infrastructure à la vitesse du logiciel.

Les prochaines étapes : Intel va déployer d’autres plates-formes IPU basées sur des FPGA et des ASIC dédiés. Ces solutions s’appuieront sur une puissante base logicielle qui permettra aux clients de créer des logiciels d’orchestration de pointe pour le cloud.

Pourquoi c’est important : L’évolution des centres de données nécessitera une nouvelle architecture intelligente dans laquelle les systèmes informatiques hétérogènes distribués à grande échelle fonctionnent ensemble et sont connectés de manière transparente pour apparaître comme une plate-forme informatique unique. Cette nouvelle architecture permettra de résoudre les problèmes actuels de ressources bloquées, de flux de données encombrés et de sécurité des plateformes incompatibles. Cette architecture de centre de données intelligente comprendra trois catégories de calcul : CPU pour le calcul général, XPU pour l’accélération spécifique à une application ou à une charge de travail et IPU pour l’accélération de l’infrastructure - qui seront connectées par des réseaux programmables afin d’utiliser efficacement les ressources du centre de données.

Plus de contexte : Why You Have Been Thinking About the Future of the Data Center All Wrong (Navin Shenoy Presentation) | Regardez la conférence d’Intel au sommet Six Five pour en savoir plus sur la manière dont l’IPU peut résoudre les problèmes de plus en plus complexes des clients.

Regardez la conférence d’Intel au sommet Six Five pour en savoir plus sur la manière dont l’IPU peut résoudre les problèmes de plus en plus complexes des clients.


Note 1 : The reference “From Profiling a warehouse-scale computer, Svilen Kanev, Juan Pablo Darago, Kim M Hazelwood, Parthasarathy Ranganathan, Tipp J Moseley, Guyeon Wei, David Michael Brooks, ISCA’15” https://research.google/pubs/pub44271.pdf — figure 4

Note 2 :
https://research.fb.com/publications/accelerometer-understanding-acceleration-opportunities-for-data-center-overheads-at-hyperscale/


Voir les articles précédents

    

Voir les articles suivants