Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Red Hat, Inc lance la plateforme Red Hat Enterprise Linux (RHEL) AI

septembre 2024 par Marc Jacob

Red Hat, Inc annonce la disponibilité générale de sa plateforme Red Hat Enterprise Linux (RHEL) AI sur l’ensemble du cloud hybride. RHEL AI est la plateforme de gestion des modèles de fondation qui permet aux clients de Red Hat de développer, de tester et d’exécuter des modèles d’IA générative (gen AI) avec une plus grande transparence, en vue d’alimenter des implémentations en entreprise. Cette plateforme combine la famille de grands modèles de langage (LLM) Granite sous licence open source et des outils d’alignement des modèles InstructLab basés sur la méthodologie d’alignement à grande échelle pour les chatbots (LAB — Large-scale Alignment for chatBots) sous forme d’image RHEL (Red Hat Enterprise Linux) optimisée et amorçable pour les déploiements sur des serveurs individuels dans l’ensemble du cloud hybride.

Si les promesses de l’IA générative sont immenses, les coûts inhérents à l’achat, à l’apprentissage et au réglage des grands modèles de langage (LLM) peuvent s’avérer astronomiques, l’entraînement de certains modèles de pointe pouvant avoisiner les 200 millions de dollars avant de pouvoir les lancer. Ce montant n’inclut pas le coût associé à l’alignement sur les exigences ou les données spécifiques à chaque entreprise, cette opération nécessitant généralement le recours à des data scientists ou à des développeurs hautement spécialisés. Quel que soit le modèle choisi pour une application donnée, celui-ci doit s’aligner sur les données et les processus propres à l’entreprise, ce qui rend l’efficacité et l’agilité essentielles pour l’IA dans les environnements de production réels.

Red Hat estime qu’au cours de la prochaine décennie, des modèles d’IA plus compacts, plus efficaces et spécifiquement adaptés aux besoins des entreprises constitueront une part importante de la pile informatique aux côtés des applications natives en cloud. Mais pour y parvenir, l’IA générative doit gagner en accessibilité et en disponibilité, qu’il s’agisse de son coût, de ses contributeurs ou de l’endroit où elle peut être déployée sur le cloud hybride. Depuis plusieurs décennies, les communautés open source mettent tout en œuvre pour relever des défis similaires et résoudre des problèmes logiciels complexes grâce à la contribution de divers groupes d’utilisateurs ; une approche comparable peut lever les obstacles à l’adoption effective de l’IA générative.

Vers une approche open source de l’IA générative
Avec sa plateforme RHEL AI, Red Hat entend relever les défis suivants en rendant l’IA générative plus accessible, plus efficace et plus flexible pour les DSI et le service IT des grandes entreprises sur le cloud hybride :
● favoriser l’innovation pour l’IA générative grâce à des modèles Granite sous licence open source à usage professionnel et alignés sur un large éventail de cas d’utilisation de l’IA générative ;
● rationaliser l’alignement des modèles d’IA générative sur les exigences des entreprises grâce aux outils InstructLab ; cette approche permet aux experts et aux développeurs des entreprises d’intégrer des compétences et des connaissances uniques à leurs modèles, même s’ils ne disposent pas de compétences approfondies en science des données ;
● entraîner et déployer l’IA générative sur l’ensemble du cloud hybride en fournissant la totalité des outils nécessaires pour régler et déployer des modèles pour les serveurs de production, indépendamment de l’endroit où résident les données associées. La plateforme RHEL AI fournit également un accès à la solution Red Hat OpenShift AI pour l’entraînement, le réglage et le déploiement de ces modèles à grande échelle tout en utilisant les mêmes outils et concepts.

La plateforme RHEL AI bénéficie également des avantages du modèle de souscription de Red Hat qui comprend la distribution de produits d’entreprise fiables, un support en production 24h/24 et 7j/7, un support étendu sur l’ensemble du cycle de vie des modèles, l’indemnisation de la propriété intelligente des modèles, ainsi que des protections juridiques avec le programme Open Source Assurance de Red Hat.

La plateforme RHEL AI s’étend au cloud hybride
Déployer une plateforme de modèles de fondation plus cohérente au plus près de l’endroit où résident les données est essentiel pour soutenir la stratégie d’IA de production des entreprises. En tant qu’extension du portefeuille de cloud hybride de Red Hat, la plateforme RHEL AI couvrira la quasi-totalité des environnements d’entreprise, des datacenters sur site au cloud public en passant par les environnements périphériques (edge environments). En d’autres termes, la plateforme RHEL AI sera disponible directement auprès de Red Hat, de ses partenaires OEM (Original Equipment Manufacturer) et dans l’environnement des plus grands fournisseurs de cloud du monde, à savoir Amazon Web Services (AWS), Google Cloud Platform (GCP), IBM Cloud et Microsoft Azure. Les développeurs et les services IT seront ainsi en mesure d’exploiter la puissance de calcul des hyperscalers pour créer des concepts d’IA innovants avec RHEL AI.

 Disponibilité
La plateforme RHEL AI est disponible dès aujourd’hui via le portail client de Red Hat ; elle peut être exécutée sur site ou téléchargée sur AWS et IBM Cloud en tant qu’offre d’abonnement BYOS (Bring Your Own Subscription). La disponibilité d’une offre BYOS sur Azure et GCP est prévue au quatrième trimestre 2024. Enfin, la plateforme RHEL AI devrait également être disponible « en tant que service » sur IBM Cloud un peu plus tard dans l’année.

Red Hat prévoit d’élargir l’ouverture des partenaires cloud et OEM (Original Equipment Manufacturer) à la plateforme RHEL AI au cours des mois à venir afin d’offrir un plus grand choix sur l’ensemble du cloud hybride.


Voir les articles précédents

    

Voir les articles suivants