En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer des contenus et services adaptés à vos centres d’intérêts. En savoir plus et gérer ces paramètres. OK X
 
 

 

 

Actualité des entreprises

Mirantis automatise le déploiement des AI factories

Publication: 17 avril

Partagez sur
 
Avec k0rdent AI et NVIDIA Run:ai...
 

Une intégration validée qui permet de déployer des plateformes AI factory pleinement opérationnelles en quelques minutes, accélérant la mise en production pour les environnements GPU d’entreprise et neocloud

Paris, le 15 avril 2026 – Mirantis, spécialiste des infrastructures Kubernetes-native pour l’IA, annonce aujourd’hui une nouvelle intégration permettant aux entreprises et aux fournisseurs neocloud de déployer des plateformes IA prêtes pour la production en quelques minutes, contre plusieurs semaines auparavant, grâce au déploiement automatisé et la gestion du cycle de vie de NVIDIA Run:ai via la plateforme Mirantis k0rdent AI. Cette intégration comble le fossé entre le provisionnement de l’infrastructure GPU et une AI factory pleinement opérationnelle.

Alors que les organisations multiplient les projets d’AI factories privées, beaucoup découvrent qu’acheter une infrastructure IA est bien plus simple que de la déployer et de l’opérer. Le provisionnement des nodes GPU n’est que la première étape. Les équipes doivent assembler les couches d’orchestration, séquencer des dépendances d’opérateurs complexes, configurer le réseau et l’allocation des ressources, puis valider l’ensemble de l’infrastructure avant de lancer le moindre job d’entraînement ou d’inférence.

« Les entreprises ne peinent pas à acheter des GPU : elles peinent à les rendre opérationnels, » a déclaré Richard Borenstein, vice-président senior du développement commercial chez Mirantis. « En automatisant le déploiement de NVIDIA Run:ai dans le cadre d’une plateforme AI factory full-stack, k0rdent AI permet aux organisations de passer de la livraison de l’infrastructure à l’exécution des workloads en une fraction du temps, avec des résultats reproductibles et conformes aux exigences de la production. »

« Les entreprises et les fournisseurs cloud cherchent à accélérer le passage de l’infrastructure à l’IA en production, » a déclaré Omri Geller, Vice-Président et Directeur Général, NVIDIA. « En intégrant NVIDIA Run:ai à Mirantis k0rdent AI, nos clients peuvent automatiser le déploiement d’environnements AI factory, ce qui permet d’accélérer le retour sur investissement, d’améliorer l’utilisation des GPU et de faire évoluer plus efficacement les workloads IA dans des environnements multi-tenants. »

Mirantis k0rdent AI automatise ce processus d’assemblage en couches, du bare-metal jusqu’à l’orchestration des workloads IA, y compris le déploiement automatisé de NVIDIA Run:ai, la couche d’orchestration des workloads IA et de planification GPU dans l’architecture de référence NVIDIA AI Factory.

NVIDIA Run:ai dans la stack AI factory

NVIDIA Run:ai assure la couche d’orchestration des workloads IA et de planification GPU, directement au-dessus de l’infrastructure. Elle permet aux data scientists, aux ingénieurs ML et aux opérateurs de plateformes de soumettre des jobs d’entraînement, d’exécuter des workloads d’inférence et de lancer des notebooks interactifs via UI, CLI ou API, sans avoir à gérer les clusters Kubernetes ni la configuration sous-jacente des GPU.

Aussi puissants soient-ils, les plans de contrôle d’inférence et les planificateurs GPU peuvent s’avérer complexes à déployer et à opérer, notamment aux interfaces organisationnelles entre les équipes IT et data science. L’intégration Mirantis élimine cette complexité.

En tant que membre validé de l’initiative NVIDIA AI Cloud Ready, Mirantis a conçu k0rdent AI pour automatiser les couches d’infrastructure des AI factories, du provisionnement bare-metal au déploiement des services de plateforme. La plateforme installe, configure et séquence automatiquement :

- Ingress et DNS externe ;

- cert-manager ;

- NVIDIA GPU Operator ;

- NVIDIA Network Operator ;

- Dynamic Resource Allocation (DRA) Operator ;

- MPI Operator ;

- Training Operator ;

Modèles de plateforme NVIDIA Run:ai.

k0rdent AI gère le séquençage des dépendances, la validation de la configuration et les vérifications de l’état de l’infrastructure, supprimant toute intervention manuelle et éliminant la dépendance aux connaissances non documentées que seuls les experts expérimentés détiennent pour rendre une infrastructure IA opérationnelle.

Ce qui nécessitait habituellement plusieurs jours ou semaines pour des ingénieurs expérimentés peut désormais être accompli en quelques minutes. Pour les fournisseurs neocloud, cela permet le provisionnement d’AI factories à la demande, en déployant un environnement NVIDIA Run:ai complet selon les besoins et en le supprimant lorsqu’il est inactif, afin de maximiser l’utilisation des GPU. Pour les entreprises, cela garantit des déploiements d’AI factories cohérents et reproductibles à travers les équipes, les régions et les infrastructures IT.

Conçu pour les environnements IA réglementés et souverains

L’intégration prend en charge les déploiements air-gapped, permettant de créer des environnements AI factory entièrement isolés, sans aucune dépendance réseau externe. Cela garantit une automatisation reproductible pour les secteurs réglementés et les organisations gouvernementales opérant dans des infrastructures à accès réseau restreint.

k0rdent AI prend également en charge les dernières architectures GPU à l’échelle du rack, notamment la prise en charge native des systèmes NVIDIA Grace Blackwell NVL72 via NVIDIA NCX Infra Controller (NICo). NICo assure une automatisation zero-touch du cycle de vie des systèmes bare-metal, sécurisant l’infrastructure des datacenters à sa fondation.

Certification de compatibilité avec NVIDIA Run:ai

L’intégration k0rdent AI et NVIDIA Run:ai a été testée et validée dans le cadre du programme de certification de NVIDIA Run:ai. Mirantis a exécuté plus de 100 tests fonctionnels couvrant la soumission des workloads, le comportement de planification, les opérations multi-tenants et la gestion du cycle de vie de la plateforme, obtenant ainsi le statut de partenaire certifié. Mirantis k0rdent figure parmi les distributions NVIDIA Run:ai officiellement certifiées.

Automatisation complète du cycle de vie des AI factories

L’intégration actuelle constitue le socle d’une gestion complète du cycle de vie des AI factories. Les évolutions futures de la roadmap incluent les mises à jour déclaratives, la gestion des dérives de configuration et l’automatisation étendue des opérations « day-two », le tout géré via le plan de contrôle Kubernetes-native de k0rdent AI.

À mesure que le modèle d’AI factory s’impose comme standard pour l’IA privée en entreprise et les services GPU neocloud, l’intégration Mirantis et NVIDIA Run:ai accélère la mise en production tout en garantissant une infrastructure automatisée, reproductible et prête à évoluer.

https://www.mirantis.com

Suivez MtoM Mag sur le Web

 

Newsletter

Inscrivez-vous a la newsletter d'MtoM Mag pour recevoir, régulièrement, des nouvelles du site par courrier électronique.

Email: