En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer des contenus et services adaptés à vos centres d’intérêts. En savoir plus et gérer ces paramètres. OK X
 
 

 

 

Nouveaux produits

Red Hat dévoile RHEL AI 1.3 et ses nouvelles avancées en IA générative

Publication: Décembre 2024

Partagez sur
 
Red Hat AI 1.3 intègre désormais le modèle Granite 3.0 8b, simplifie la préparation des données d’entraînement de l’IA et étend la prise en charge des tous derniers accélérateurs matériels...
 

Red Hat, premier éditeur mondial de solutions open source, présente la toute dernière version de Red Hat Enterprise Linux AI (RHEL AI), la plateforme pour les modèles de fondation qui permet aux utilisateurs de développer, de tester et d’exécuter des modèles d’IA générative de manière plus fluide pour les applications d’entreprise. RHEL AI 1.3 prend en charge la famille de grands modèles de langage (LLM) Granite et intègre des avancées open source pour la préparation des données, tout en conservant une grande liberté de choix pour les déploiements dans le cloud hybride, y compris l’architecture de calcul accéléré sous-jacente.

Selon l’étude “Market Analysis Perspective : Open GenAI, LLMs, and the Evolving Open Source Ecosystem” d’IDC, 61 % des répondants prévoient d’utiliser des modèles de fondation open source pour les cas d’utilisation d’IA générative, tandis que plus de 56 % des modèles de fondation déployés sont déjà open source. Pour Red Hat, cette tendance vient confirmer sa vision en matière d’IA générative, qui consiste à s’appuyer sur :

- Des modèles plus petits, sous licence open source et qui peuvent être exécutés n’importe où dans le cloud hybride.

- Des capacités d’ajustement qui permettent aux entreprises de personnaliser plus facilement leurs LLM en fonction des données privées et des cas d’utilisation spécifiques.

- Des modèles d’IA optimisés et plus efficaces grâce à une expertise en ingénierie en matière de performances et d’inférence.

- Un solide écosystème de partenaires open source pour proposer une plus grande variété de choix aux clients.

RHEL AI constitue un pilier essentiel dans la vision de Red Hat en matière d’IA ; la plateforme combine la famille de grands modèles de langage Granite sous licence open source avec des outils d’alignement des modèles InstructLab qui reposent sur la méthodologie d’alignement à grande échelle pour les chatbots (LAB). La solution complète est fournie sous forme d’image RHEL optimisée et amorçable pour les déploiements sur des serveurs individuels sur l’ensemble du cloud hybride.

Une prise en charge des LLM Granite 3.0

RHEL AI 1.3 étend l’engagement de Red Hat envers les LLM Granite en prenant en charge les cas d’utilisation du modèle Granite 3.0 8b en langue anglaise. Granite 3.0 8b est un modèle convergent qui prend en charge non seulement l’anglais, mais également une dizaine d’autres langues naturelles, ainsi que la génération de code et l’appel de fonction. En outre, les cas d’utilisation en langues autres que l’anglais, ainsi que le code et les fonctions, sont disponibles dans RHEL AI 1.3 en tant qu’aperçu technologique pour les développeurs et devraient être pris en charge dans les prochaines versions de la plateforme.

Simplifier la préparation des données grâce à Docling

Récemment lancé en open-source par IBM Research, Docling est un projet communautaire mené en amont, qui permet d’analyser les formats de documents courants et de les convertir dans des formats tels que Markdown et JSON, préparant ainsi ce contenu pour les applications et l’entraînement de l’IA générative. RHEL AI 1.3 intègre désormais cette innovation en tant que fonctionnalité prise en charge, permettant aux utilisateurs de convertir des documents PDF au format Markdown afin de simplifier l’ingestion de données et d’ajuster les modèles avec InstructLab.

Grâce à Docling, RHEL AI 1.3 inclut désormais la technique du Chunking contextuel, qui prend en compte la structure et les éléments sémantiques des documents utilisés dans le cadre de l’entraînement de l’IA générative. Les applications d’IA générative qui en résultent peuvent ainsi maintenir de meilleurs niveaux de cohérence et produire des réponses contextuellement appropriées selon les questions et les tâches, ce qui nécessiterait en temps normal un réglage et un alignement plus approfondis.

Par ailleurs, les prochaines versions de RHEL AI continueront à prendre en charge et à optimiser les composants Docling, y compris les formats de documents supplémentaires ainsi que l’intégration de pipelines de génération augmentée de récupération (RAG) en complément du processus d’ajustement des connaissances d’InstructLab.

Développer l’écosystème de l’IA générative

La liberté de choix est un élément fondamental du cloud hybride. L’IA générative étant un workload caractéristique des environnements hybrides, cette liberté de choix doit commencer par les architectures de puces sous-jacentes. RHEL AI assure déjà la prise en charge des principaux accélérateurs de NVIDIA et AMD, et la nouvelle version 1.3 comprend désormais Intel Gaudi 3 en tant qu’aperçu technologique.

Outre l’architecture des puces, la plateforme RHEL AI est prise en charge par les principaux fournisseurs de cloud du marché, notamment AWS, Google Cloud et Microsoft Azure, et proposée en tant qu’offre « bring-your-own-subscription » (BYOS). La plateforme sera également bientôt disponible sur la Marketplace d’Azure et d’AWS en tant que solution alternative optimisée et validée.

Par ailleurs, RHEL AI est actuellement disponible en tant que plateforme de modèles de fondation privilégiée sur les offres d’accélérateurs matériels proposées par certains partenaires Red Hat, notamment les serveurs Dell PowerEdge R760xa et les serveurs Lenovo ThinkSystem SR675 V3.

Une meilleure mise à disposition des modèles grâce à Red Hat OpenShift AI

Alors que les utilisateurs cherchent à faire évoluer la mise à disposition des LLM, Red Hat OpenShift AI prend désormais en charge la mise à disposition parallélisée sur plusieurs nœuds avec des exécutions vLLM, pour pouvoir traiter plusieurs requêtes en temps réel. Red Hat OpenShift AI permet également aux utilisateurs de modifier les paramètres d’un LLM de manière dynamique lorsque ce dernier est mis à disposition, par exemple en partitionnant le modèle sur plusieurs GPU ou en le quantifiant, afin de le rendre moins volumineux. Ces améliorations permettent aux utilisateurs d’obtenir des réponses avec un délai plus court, et donc à améliorer la satisfaction et la fidélisation client.

Prise en charge de Red Hat AI

Les plateformes RHEL AI et Red Hat OpenShift AI sous-tendent Red Hat AI, le portefeuille de solutions de Red Hat qui accélèrent le Time-to-Market et réduisent les coûts opérationnels liés à la fourniture de solutions d’IA dans le cloud hybride. RHEL AI prend en charge les environnements de serveurs Linux individuels, tandis que Red Hat OpenShift AI alimente les environnements de plateforme Kubernetes distribués et offre des capacités intégrées d’opérations de Machine Learning (MLOps). Ces deux solutions sont mutuellement compatibles ; en outre, Red Hat OpenShift AI intégrera l’ensemble des capacités de RHEL AI pour les fournir à grande échelle.

Disponibilité

La nouvelle version RHEL AI 1.3 est désormais disponible au grand public.

Citations

Joe Fernandes, vice president and general manager, Artificial Intelligence Business Unit, Red Hat : « Chez Red Hat, nous sommes convaincus que, pour pouvoir pleinement exploiter la puissance transformatrice de l’IA générative, il est nécessaire de s’appuyer sur des modèles plus petits et optimisés, qui doivent être déployés partout dans le cloud hybride. Les améliorations apportées à RHEL AI s’appuient sur cette conviction ; elles facilitent la préparation des données organisationnelles pour l’entraînement de modèles privés avec Docling et intègrent les toutes dernières avancées de la famille Granite en matière de LLM sous licence open source ».

https://www.redhat.com/

Suivez MtoM Mag sur le Web

 

Newsletter

Inscrivez-vous a la newsletter d'MtoM Mag pour recevoir, régulièrement, des nouvelles du site par courrier électronique.

Email: