En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer des contenus et services adaptés à vos centres d’intérêts. En savoir plus et gérer ces paramètres. OK X
 
 

 

 

Actualité des entreprises

Red Hat OpenShift AI étend la flexibilité de l’IA prédictive et générative

Publication: 13 mai

Partagez sur
 
Depuis les datacenters sur site jusqu’en périphérie des réseaux, en passant par de multiples clouds publics, Red Hat OpenShift AI étend les capacités d’individualisation et de choix des entreprises afin de leur permettre de suivre le rythme de l’essor des workloads intelligents...
 

Red Hat, premier éditeur mondial de solutions Open Source, annonce des évolutions pour Red Hat OpenShift AI, une plateforme hybride dédiée à l’intelligence artificielle (IA) et à l’apprentissage automatique (ML) basée sur Red Hat OpenShift, qui permet aux entreprises de créer et de mettre à disposition des applications alimentées par l’IA à grande échelle sur l’ensemble des clouds hybrides. Ces mises à jour mettent en lumière la vision de Red Hat en matière d’IA, en étendant son engagement à offrir à ses clients le choix dans l’univers des workloads intelligents, depuis la couche matérielle sous-jacente jusqu’aux services et outils, à l’image de Jupyter et PyTorch, qui viennent renforcer les capacités de la plateforme. Ces améliorations permettent d’innover plus rapidement, tout en renforçant la productivité et la capacité à intégrer une couche d’IA aux opérations quotidiennes grâce à une plateforme open source plus flexible, plus évolutive et plus adaptable, qui permet de mettre en œuvre des modèles d’IA prédictive et générative sur ou hors des environnements cloud.

Les clients sont actuellement confrontés à de nombreux défis lorsqu’il s’agit de faire passer les modèles d’IA de la phase d’expérimentation à la production : parmi ces difficultés figurent notamment des coûts matériels plus importants, des inquiétudes concernant la confidentialité des données et un manque de confiance dans le partage d’informations à l’aide de modèles fondés sur des solutions logicielles as-a-Service (SaaS). L’IA générative connaît une transformation rapide et de nombreuses entreprises rencontrent des difficultés lorsqu’il s’agit de mettre en place une plateforme d’IA centrale fiable qui s’exécute à la fois sur site et dans le cloud.

Selon IDC1, afin de tirer avantage de l’IA, les entreprises vont devoir moderniser de nombreuses applications et environnements de données existants, briser les barrières qui séparent les systèmes existants et les plateformes de stockage, renforcer la durabilité de leur infrastructure et sélectionner minutieusement l’emplacement où elles souhaitent déployer les workloads, dans le cloud, au sein du datacenter ou en périphérie des réseaux. Pour Red Hat, cela montre que les plateformes d’IA doivent être dotées d’un degré de flexibilité suffisant pour accompagner les entreprises tout au long de leur parcours d’adoption de l’IA, à mesure qu’elles adaptent leurs besoins et leurs ressources.

La stratégie de Red Hat en matière d’IA inclut la flexibilité sur l’ensemble du cloud hybride, la capacité à améliorer les modèles de fondation pré-entraînés ou édités à l’aide des données de leurs clients, ainsi que la possibilité d’avoir recours à un vaste panel d’accélérateurs matériels et logiciels. Les nouvelles améliorations de Red Hat OpenShift AI répondent aux besoins des entreprises en leur donnant accès aux dernières innovations en matière d’IA/ML, grâce à l’intégration d’un écosystème de plus en plus étendu de partenaires qui focalisent leur attention sur l’IA. Red Hat OpenShift AI 2.9, la dernière version de la plateforme, propose notamment :

- La mise à disposition de modèles en périphérie, qui permet d’étendre le déploiement des modèles d’IA aux emplacements distants à l’aide d’une configuration OpenShift à un seul nœud. Cela offre des capacités d’inférence au sein d’environnements limités en ressources dont l’accès au réseau demeure intermittent ou lacunaire. Cette fonctionnalité disponible en avant-première technologique donne aux entreprises la possibilité de profiter d’une expérience opérationnelle évolutive et cohérente depuis le cœur de réseau jusqu’en périphérie en passant par le cloud et s’accompagne de capacités d’observabilité immédiatement disponibles.

- Une distribution des modèles améliorée grâce à l’exploitation de multiples serveurs de modèles afin de soutenir l’IA prédictive et générative, incluant un support pour KServe, une définition des ressources Kubernetes sur mesure qui orchestre la distribution de tous types de modèles, un distributeur d’inférence de vLLM et de génération de texte, des moteurs de distribution pour les LLM et les environnements d’exécution Caikit-nlp-tgis, qui gèrent les modèles et les tâches de traitement du langage naturel (NLP). Cette distribution de modèles améliorée permet aux utilisateurs d’exécuter l’IA prédictive et générative sur une plateforme unique pour de nombreux cas d’usage, ce qui aide à réduire les coûts et à simplifier les opérations. Cela permet une distribution de modèles originale pour les LLM et simplifie les workflows utilisateurs correspondants.

- Des workloads distribués avec Ray, à l’aide de CodeFlare et KubeRay, permettant un traitement des données et un entraînement des modèles plus rapides et plus efficaces à l’aide de multiples nœuds de cluster. Ray offre un cadre pour l’accélération des workloads d’IA et KubeRay permet de gérer ces workloads sur Kubernetes. CodeFlare joue un rôle central dans les capacités de distribution des workloads de Red Hat OpenShift AI, en offrant un cadre facile d’utilisation qui permet de simplifier l’orchestration et le monitoring des tâches. La file d’attente centrale et les capacités de gestion offrent une exploitation optimale des nœuds et permettent d’allouer des ressources, comme le processeur graphique, aux workloads et aux utilisateurs les plus pertinents.

- Un développement des modèles amélioré grâce aux espaces de travail pour les projets et aux images de référence supplémentaires qui offrent aux data scientists un degré de flexibilité suffisant pour leur permettre d’exploiter des IDE et des boîtes à outils, y compris VS Code et RStudio, actuellement disponibles en avant-première, ou encore la version améliorée de CUDA, pour un vaste panel de cas d’usage et de types de modèles.

- Des visualisations pour le monitoring des modèles afin d’obtenir des indicateurs de performance et opérationnels, ce qui renforce l’observabilité des performances des modèles d’IA.

- De nouveaux profils d’accélérateurs permettent aux administrateurs de configurer différents types d’accélérateurs matériels pour les workflows de développement et de distribution des modèles. Cela permet aux utilisateurs d’accéder facilement et directement au type d’accélérateur adapté à un workload spécifique.

Au-delà du fait que Red Hat OpenShift AI sous-tend watsonx.ai d’IBM, les entreprises de tous les secteurs s’équipent de Red Hat OpenShift AI afin de stimuler l’innovation et la croissance en matière d’IA. Parmi ces organisations figurent l’hôpital pour enfants de Boston, l’AGESIC et Ortec Finance.

Le cloud est hybride. Il en va de même pour l’IA

Depuis plus de 30 ans, les technologies open source associent innovation rapide avec une réduction drastique des coûts informatiques et des barrières à l’innovation. Red Hat se positionne à l’avant-garde de ces évolutions depuis presque aussi longtemps, depuis la mise à disposition de plateformes Linux ouvertes à destination des entreprises avec le lancement de RHEL au début des années 2000, jusqu’à la définition des conteneurs et de Kubernetes comme la fondation du cloud hybride ouvert et de l’informatique cloud native grâce à Red Hat OpenShift.

Cet élan se poursuit à mesure que Red Hat alimente les stratégies d’IA/ML sur l’ensemble du cloud hybride ouvert, en permettant l’exécution des workloads à l’emplacement où les données sont conservées, qu’il s’agisse du datacenter, de multiples clouds publics ou en périphérie des réseaux. Au-delà des workloads, la vision de Red Hat en matière d’IA s’accompagne d’un entraînement et d’un raffinement des modèles dans cette perspective afin de répondre aux limites liées à la souveraineté des données, à la conformité réglementaire et à l’intégrité opérationnelle. La cohérence dont font preuve les plateformes de Red Hat sur l’ensemble de ces environnements, quel que soit l’endroit où elles s’exécutent, est un facteur essentiel pour continuer de stimuler l’innovation.

Citations

Ashesh Badani, chief product officer and senior vice president, Red Hat : « Il ne s’agit plus de se demander si, mais quand intégrer l’IA au sein des entreprises. Celles-ci ont besoin de disposer d’une plateforme d’IA plus fiable, plus cohérente et plus flexible, qui leur permettra de renforcer leur productivité, d’augmenter leur chiffre d’affaires et de soutenir leur différenciation sur le marché. La réponse que Red Hat apporte aux exigences de l’IA d’entreprise à grande échelle est Red Hat OpenShift AI, qui donne aux décideurs informatiques la possibilité de déployer des applications intelligentes n’importe où dans le cloud hybride, tout en développant et en affinant les opérations et les modèles en fonction des besoins afin de prendre en compte les réalités des applications et des services en production. »

Thomas Taroni, CEO, Phoenix Technologies : « La vision de Red Hat en matière d’IA s’aligne parfaitement avec notre objectif de fournir aux entreprises une solution d’IA fiable et souveraine. Grâce à Red Hat OpenShift AI, nos clients kvant AI bénéficient d’une flexibilité, d’une évolutivité et d’une sécurité inégalées. Grâce à la combinaison de kvant AI avec Red Hat OpenShift AI, les entreprises sont parfaitement équipées pour intégrer sans effort les modèles d’IA prédictive et générative, donnant ainsi à chacun les moyens de créer des applications d’IA de manière agile et en toute confiance. »

Jeff Fonke, Sr. Practice Manager AI & Data, World Wide Technology Holding Co. : « Alors que les modèles informatiques traditionnels se débattent avec la complexité de l’IA, WWT s’engage à aider ses clients à prendre plus rapidement les meilleures décisions en matière de technologies, dans le cadre de leur adoption de l’IA. AI Proving Ground de WWT témoigne de cette volonté. Fondé sur la plateforme Red Hat OpenShift AI, AI Proving Ground permet à nos clients de tester, d’entraîner, de valider et de déployer des solutions d’IA sécurisées afin de générer de la valeur concrète pour leur entreprise. »

Joris Cramwinckel, Technologist, Ortec Finance : « Au cours de ces deux dernières années, Red Hat nous a permis de distribuer avec succès des modèles d’apprentissage automatique pour estimer la valeur des biens résidentiels sur Azure Red Hat OpenShift et nous sommes impatients de mettre en place Red Hat OpenShift AI afin de remplacer nos efforts de maintenance et les code propriétaire pour la distribution de modèles d’IA au sein de nos applications. En combinant la puissance d’OpenShift AI avec Azure Red Hat OpenShift, notre équipe de recherche et développement pourra accélérer la transition de nos clients vers des solutions basées sur l’IA, ce qui nous permettra de gérer plus efficacement les risques et d’améliorer nos investissements. »

https://www.redhat.com/

Suivez MtoM Mag sur le Web

 

Newsletter

Inscrivez-vous a la newsletter d'MtoM Mag pour recevoir, régulièrement, des nouvelles du site par courrier électronique.

Email: