En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer des contenus et services adaptés à vos centres d’intérêts. En savoir plus et gérer ces paramètres. OK X
 
 

 

 

Actualité des entreprises

Canonical et NVIDIA s’efforcent de rendre l’IA plus accessible aux entreprises

Publication: Mars 2023

Partagez sur
 
Charmed Kubeflow est désormais certifié dans le cadre du programme NVIDIA DGX-Ready Software...
 

Canonical, un leader de l’Open Source et éditeur d’Ubuntu, annonce que Charmed Kubeflow est désormais certifié dans le cadre du programme NVIDIA DGX-Ready Software. Cette collaboration avec NVIDIA accélère les déploiements à grande échelle des projets d’IA et de data science sur l’infrastructure d’IA la plus performante, en fournissant une solution unifiée et optimisée à l’échelle de l’institution pour les flux de travail de science des données, de l’expérimentation à la formation et au service.

Canonical, en collaboration avec NVIDIA, permet et optimise Ubuntu sur les supercalculateurs NVIDIA DGX AI ou les serveurs grand public construits sur la plateforme NVIDIA EGX Enterprise. Aujourd’hui, une étape est franchie avec le lancement d’une solution MLOps certifiée de bout en bout qui associe le meilleur des MLOps open source au meilleur matériel pour l’entraînement et l’inférence, afin d’offrir aux entreprises une pile robuste et unifiée, depuis le noyau et les pilotes jusqu’à la couche d’application de la data science.

Les équipes de Canonical et de NVIDIA testent les systèmes DGX à nœud unique et à nœuds multiples pour valider la fonctionnalité de Charmed Kubeflow au-dessus de MicroK8s et de Charmed Kubernetes. Avec l’ensemble du flux de travail d’apprentissage automatique sur cette pile, les entreprises débloquent des expérimentations et des livraisons plus rapides pour les initiatives d’IA.

Les récentes découvertes dans le domaine de l’IA générative ont incité les organisations à consacrer 5 % de leur budget numérique à l’IA (McKinsey - The State of AI in 2022) et à mettre au défi plusieurs équipes d’intégrer l’IA dans leur plan et leur processus d’innovation. Les compétences clés ainsi que les capacités d’infrastructure sont très demandées, telles que la puissance de calcul, l’automatisation des flux de travail et la surveillance continue. Ces besoins sont directement satisfaits par Charmed Kubeflow sur du matériel NVIDIA.

Charmed Kubeflow est une plateforme MLOps open-source de bout en bout sur Kubernetes. Elle automatise les flux de travail d’apprentissage automatique afin de créer une couche d’application fiable pour le développement de modèles, l’itération et le déploiement en production avec KServe, KNative ou NVIDIA Triton Inference Server, quel que soit le framework ML utilisé.

Les systèmes NVIDIA DGX sont spécialement conçus pour l’IA d’entreprise. Ces plateformes sont équipées de GPU NVIDIA Tensor Core qui surpassent largement les CPU traditionnels pour les charges de travail d’apprentissage automatique, ainsi que de capacités avancées de mise en réseau et de stockage. Avec des performances record, les systèmes NVIDIA DGX fonctionnent sous Ubuntu Pro optimisé avec un engagement de sécurité de 10 ans. De plus, les systèmes DGX intègrent NVIDIA AI Enterprise, la couche logicielle de la plateforme NVIDIA AI, qui comprend plus de 50 frameworks et modèles pré-entraînés pour accélérer le développement.

"Les systèmes NVIDIA DGX permettent à chaque entreprise d’accéder à un supercalculateur d’IA clé en main pour relever les défis les plus complexes en matière d’IA," a déclaré Tony Paikeday, Senior Director of AI Systems chez NVIDIA. "Les logiciels MLOps DGX-Ready comme Charmed Kubeflow maximisent à la fois l’utilisation et l’efficacité des systèmes DGX pour accélérer le développement de modèles d’IA."

"Canonical travaille en étroite collaboration avec NVIDIA pour permettre aux entreprises d’exécuter facilement l’IA à grande échelle. Ensemble, nous facilitons le développement de modèles d’apprentissage automatique optimisés, en utilisant une infrastructure spécialisée dans l’IA, avec MLOps open source," a déclaré Andreea Munteanu, chef de produit MLOps chez Canonical. "L’extension de cette collaboration aux outils et frameworks d’IA tels que NVIDIA Triton Inference Server, offre aux développeurs un pipeline de développement entièrement intégré."

https://www.canonical.com/

Suivez MtoM Mag sur le Web

 

Newsletter

Inscrivez-vous a la newsletter d'MtoM Mag pour recevoir, régulièrement, des nouvelles du site par courrier électronique.

Email: