Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Red Hat, Inc. et Run:ai annoncent leur collaboration

mai 2024 par Marc Jacob

Red Hat, Inc. et Run:ai annoncent leur collaboration afin d’apporter les capacités d’allocation des ressources de Run:ai à Red Hat OpenShift AI. En rationalisant les opérations d’IA et en optimisant l’infrastructure sous-jacente, cette collaboration permet aux entreprises de tirer le meilleur parti des ressources d’IA en maximisant les workflows pilotés par des humains ou par du matériel sur une plateforme MLOps de confiance dédiée à la construction, au réglage, au déploiement et au monitoring à l’échelle d’applications et de modèles augmentés par l’IA.

En tant que moteurs de calcul des workflows d’IA, les GPU favorisent l’apprentissage des modèles, l’inférence ou encore l’expérimentation. Cependant, ces processeurs spécialisés peuvent être coûteux, en particulier lorsqu’ils sont utilisés pour des tâches de formation et d’inférence distribuées. Red Hat et Run:ai s’efforcent de répondre à ce besoin critique d’optimisation des ressources GPU avec l’Openshift Operator certifié de Run:ai sur Red Hat OpenShift AI. Cet opérateur aide les utilisateurs à mettre à l’échelle et optimiser leurs workloads d’IA, quel que soit leur emplacement.

En outre, la plateforme d’orchestration de calcul cloud native de Run:ai sur Red Hat OpenShift AI aide les entreprises à :

● Résoudre les problèmes de planification des GPU pour les workloads d’IA grâce à un planificateur de workloads dédié, afin de prioriser plus facilement les workloads critiques et de confirmer que des ressources suffisantes sont allouées pour les prendre en charge.
● Utiliser des capacités de GPU et de monitoring fractionnées pour allouer les ressources de manière dynamique en fonction des priorités et des politiques prédéfinies et ainsi permettre à l’infrastructure de gagner en efficacité.
● Bénéficier d’un meilleur contrôle et d’une visibilité accrue sur l’infrastructure GPU partagée afin de faciliter l’accès et l’allocation des ressources au sein des équipes IT, de data science et de développement d’applications.

L’Openshift Operator certifié de Run:ai est désormais disponible. Red Hat et Run:ai souhaitent poursuivre leur collaboration en proposant des capacités d’intégration supplémentaires pour Run:ai sur Red Hat OpenShift AI. Ce projet vise à favoriser des expériences client plus transparentes et à accélérer davantage la migration des modèles d’IA dans les workflows de production de manière encore plus cohérente.


Voir les articles précédents

    

Voir les articles suivants