En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer des contenus et services adaptés à vos centres d’intérêts. En savoir plus et gérer ces paramètres. OK X
 
 

 

 

Actualité des entreprises

Red Hat optimise Red Hat AI et accélère les déploiements d’IA en entreprise

Publication: 22 mai

Partagez sur
 
Red Hat AI Inference Server, les modèles validés et l’intégration de Llama Stack et de Model Context Protocol permettent aux utilisateurs de déployer des applications et des agents d’IA plus performants et plus cohérents...
 

Red Hat, premier éditeur mondial de solutions open source, continue d’offrir à ses clients un large éventail d’options en matière de solutions d’IA pour les entreprises, grâce à Red Hat AI Inference Server, aux modèles Red Hat AI validés par des tiers et à l’intégration des API Llama Stack et Model Context Protocol (MCP), ainsi qu’à des mises à niveau importantes de l’ensemble des solutions du portefeuille Red Hat AI. Grâce à ces évolutions, Red Hat compte renforcer encore davantage la capacité des entreprises à accélérer leur adoption de l’IA, tout en offrant aux clients davantage d’options et en renforçant la confiance dans les déploiements d’IA générative pour tous les cloud hybrides.

Selon le cabinet Forrester, les logiciels open source constituent le point de départ de l’accélération de l’adoption de l’IA par les entreprises.1 A mesure que le paysage de l’IA devient de plus en plus complexe et dynamique, Red Hat AI Inference Server et les modèles validés par des tiers offrent des inférences de modèles plus efficaces et un ensemble de modèles d’IA testés et optimisés pour la performance sur la plateforme Red Hat AI. En intégrant de nouvelles API dédiées au développement d’agents d’IA générative, telles que Llama Stack et MCP, Red Hat s’efforce de réduire la complexité des déploiements, ce qui permet aux dirigeants des services informatiques, aux data scientists et aux développeurs d’accélérer leurs projets d’IA, tout en bénéficiant d’un contrôle et d’une efficacité renforcée.

Des inférences efficaces sur l’ensemble du cloud hybride grâce à Red Hat AI Inference Server

Le portefeuille Red Hat AI inclut désormais la nouvelle solution Red Hat AI Inference Server, qui permet d’inférer des modèles de manière cohérente et rentable à grande échelle pour tous les environnements cloud hybrides. Cette nouveauté majeure est intégrée aux dernières versions de Red Hat OpenShift AI et Red Hat Enterprise Linux AI (RHEL AI) ; elle est également disponible au sein d’une offre séparée. Cette solution permet aux entreprises de déployer des applications intelligentes de manière plus efficace, plus flexible et plus performante.

Des modèles testés et optimisés grâce aux modèles Red Hat AI validés par des tiers

Les modèles Red Hat AI validés par des tiers, disponibles sur Hugging Face, facilitent la tâche des entreprises en quête de modèles adaptés à leurs besoins spécifiques. Red Hat AI offre un large éventail de modèles validés, ainsi que des conseils de déploiement destinés à renforcer la confiance des clients dans la performance de ces modèles et la reproductibilité des résultats obtenus. Quelques modèles triés sur le volet sont également optimisés par Red Hat, en tirant avantage des techniques de compression qui permettent d’en réduire la taille et d’augmenter la vitesse d’inférence. Cela contribue à minimiser la consommation de ressources et les coûts de fonctionnement. De plus, le processus de validation en continu des modèles aide les clients Red Hat AI à garder une longueur d’avance sur la concurrence en matière d’innovation optimisée pour l’IA générative.

Des API standardisées pour le développement d’applications et d’agents d’IA grâce à Llama Stack et MCP

Red Hat AI intègre Llama Stack, initialement développée par Meta, ainsi que MCP d’Anthropic, afin de fournir aux utilisateurs des API qui favorisent la conception et le déploiement d’applications et d’agents d’IA. Actuellement accessible aux développeurs en avant-première sur Red Hat AI, Llama Stack propose une API unifiée qui permet d’accéder aux inférences grâce à la bibliothèque vLLM, à la génération augmentée de récupération (RAG), à l’évaluation des modèles, à des garde-fous et à des agents, pour tous les modèles d’IA générative. MCP permet aux modèles de s’intégrer avec des outils externes en offrant une interface standardisée qui permet de connecter des API, des plug-in et des sources de données au sein de workflows agentiques.

La dernière version de Red Hat OpenShift AI (v2.20) s’accompagne d’améliorations supplémentaires en matière d’entraînement, de déploiement et de monitoring à grande échelle des modèles d’IA générative et d’IA prédictive. Ces nouvelles fonctionnalités incluent :

- Un catalogue de modèles optimisé (en avant-première technologique) qui facilite l’accès aux modèles validés par Red Hat et par des tiers, permet le déploiement de ces modèles sur les clusters Red Hat OpenShift AI via l’interface de console en ligne et gère le cycle de vie de ces modèles en tirant avantage du registre intégré à Red Hat OpenShift AI.

- Un entraînement distribué via KubeFlow Training Operator qui permet de planifier et d’exécuter un affinement de modèles InstructLab et d’autres workloads d’entraînement et d’affinement basés sur PyTorch, distribués sur de multiples nœuds et GPU de Red Hat OpenShift. Cela inclut une accélération distribuée du réseau RDMA et une utilisation optimisée des GPU afin de minimiser les coûts.

- Un magasin de fonctionnalités (en avant-première technologique), basé sur le projet Kubeflow Feast développé en amont, qui propose un répertoire centralisé permettant de gérer et de mettre à disposition les données pour l’entraînement et l’inférence de modèles, tout en optimisant les workflows de données afin de rendre les modèles plus précis et réutilisables.

Red Hat Enterprise Linux AI 1.5 s’accompagne de nouvelles mises à jour pour la plateforme de modèles de fondation de Red Hat, qui facilitent le déploiement, les tests et l’exécution de larges modèles de langage (LLM). Les principales fonctionnalités de la version 1.5 incluent :

- Sa disponibilité sur Google Cloud Marketplace, qui offre aux clients davantage de choix pour l’exécution de RHEL AI au sein d’environnements de cloud public, ainsi que sur AWS et Azure, afin de contribuer à simplifier le déploiement et la gestion des workloads d’IA sur Google Cloud.

- Des capacités multilingues renforcées, pour l’espagnol, l’allemand, le français et l’italien via InstructLab, pour personnaliser les modèles à l’aide de scripts natifs et ouvrir un nouveau champ des possibles en matière d’applications d’IA multilingues. Les utilisateurs peuvent également utiliser leurs propres modèles « enseignant-apprenant » afin de bénéficier d’un contrôle renforcé sur la personnalisation et les tests sur les modèles pour des cas d’usage et des langues spécifiques. Une prise en charge est prévue pour le japonais, le hindi et le coréen.

Le service Red Hat AI InstructLab sur IBM Cloud est également disponible à tous. Ce nouveau service cloud optimise encore davantage le processus de personnalisation des modèles, en améliorant l’évolutivité et l’expérience utilisateur, ce qui permet aux entreprises d’exploiter leurs ensembles de données uniques plus facilement tout en bénéficiant d’un contrôle renforcé.

La vision de Red Hat : tous les modèles, tous les accélérateurs, sur n’importe quel cloud

L’avenir de l’IA doit se définir par ses possibilités infinies, sans que la technologie doive se soumettre aux contraintes relatives aux silos dans l’infrastructure. Red Hat prédit un futur où les entreprises pourront déployer n’importe quel modèle sur n’importe quel accélérateur au sein de tous les cloud. Elles bénéficieront ainsi d’une expérience utilisateur exceptionnelle et plus cohérente, sans pour autant entraîner des dépenses excessives. Afin de concrétiser le véritable potentiel des investissements en matière d’IA générative, les entreprises ont besoin d’une plateforme d’inférence universelle, un standard qui leur permette d’innover de manière plus fluide et plus performante, dès aujourd’hui et pour les années à venir.

Citations

Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat : « Le nouveau critère de décision pour l’innovation en matière d’IA générative se situe dans l’émergence de solutions d’inférence de modèles plus rapides et plus efficaces. Grâce à ses capacités d’inférences renforcées avec Red Hat AI Inference Server et le nouvel ensemble de modèles validés par des tiers, Red Hat AI donne aux entreprises les moyens de déployer des applications intelligentes à l’endroit où elles en ont besoin, de la manière dont elles le souhaitent et à l’aide des composants qui répondent le mieux à leurs besoins spécifiques. »

Michele Rosen, research manager, IDC : « Les entreprises sont en train de terminer la phase d’exploration initiale de l’IA et se concentrent sur les déploiements concrets. La clé d’une réussite continue repose sur leur capacité à faire preuve d’adaptabilité en matière de stratégies d’IA pour correspondre à différents environnements et répondre à des besoins variés. Le succès de l’IA nécessite non seulement des modèles puissants, mais aussi qui puissent être déployés facilement et de manière rentable. Pour les entreprises qui cherchent à mettre à l’échelle leurs projets d’IA et à créer de la valeur métier, cette flexibilité constitue un critère indispensable. »

https://www.redhat.com/

Suivez MtoM Mag sur le Web

 

Newsletter

Inscrivez-vous a la newsletter d'MtoM Mag pour recevoir, régulièrement, des nouvelles du site par courrier électronique.

Email: