Mirantis, spécialiste de l’infrastructure IA souveraine et scalable basée sur Kubernetes, dévoile aujourd’hui la première architecture de référence complète du secteur dédiée au support des charges de travail IA.
L’architecture de référence Mirantis AI Factory, conçue sur Mirantis k0rdent AI, fournit une plateforme sécurisée, composable, évolutive et souveraine pour construire, exploiter et optimiser une infrastructure IA et de Machine Learning (ML) à grande échelle. Elle permet :
Le déploiement des charges de travail IA en quelques jours seulement après l’installation du matériel, grâce au modèle déclaratif et aux templates de k0rdent AI ;
Une phase de prototypage, d’itération et de mise en production des modèles et services plus rapide, réduisant considérablement les cycles de développement IA ;
Des intégrations sélectionnées (via le catalogue k0rdent) pour les outils IA/ML, l’observabilité, le CI/CD, la sécurité, et bien plus encore, basées sur des standards ouverts.
« Nous avons conçu cette architecture de référence pour aider les entreprises et fournisseurs de services à déployer efficacement des solutions d’infrastructure souveraines, multi-tenant et à grande échelle pour les charges de travail IA et ML », déclare Shaun O’Meara, Chief Technology Officer de Mirantis. « C’est une réponse directe à la forte croissance de la demande en ressources spécialisées (GPU et CPU) nécessaires pour exécuter les modèles IA, tout en offrant une expérience optimale aux développeurs et data scientists qui ne souhaitent pas devenir des experts de l’infrastructure. »
Grâce à cette architecture, Mirantis répond aux défis complexes liés au calcul haute performance : réseau RDMA, allocation et partitionnement des GPU, exigences avancées de planification, réglage des performances, montée en charge de Kubernetes. L’architecture peut aussi intégrer des plateformes IA tierces comme Gcore Everywhere Inference ou l’écosystème logiciel NVIDIA AI Enterprise.
Contrairement aux charges cloud natives conçues pour le scale-out, les charges IA nécessitent parfois de transformer des dizaines de serveurs GPU en un superordinateur virtuel à mémoire agrégée, reposant sur une connectivité ultra-performante et RDMA.
L’architecture prend en charge plusieurs types de workloads IA (entraînement, fine-tuning, inférence) et s’adapte à différents environnements : serveurs mutualisés ou dédiés, environnements virtualisés (KubeVirt/OpenStack), cloud public ou hybride/multi-cloud, ou encore sites edge. Elle couvre également les besoins spécifiques en matière de provisioning, configuration, maintenance, stockage haute performance et interconnexions ultra-rapides (Ethernet, Infiniband, NVLink, NVSwitch, CXL).
Parmi les défis traités :
Fine-tuning et configuration souvent plus complexes que pour les infrastructures classiques ;
Multi-tenance stricte pour garantir la sécurité, l’isolation des données, la gestion des ressources et des conflits ;
Souveraineté des données IA et ML, souvent sensibles ou contenant de la propriété intellectuelle, impliquant un contrôle strict sur leur usage et leur localisation ;
Conformité réglementaire et exigences régionales ;
Gestion de la montée en charge et de la dispersion géographique des infrastructures IA et ML, notamment en edge ;
Mutualisation des GPU et ressources de calcul coûteuses, nécessitant une gestion fine et un déploiement flexible ;
Pénurie de compétences en infrastructure chez les développeurs IA ou data scientists, non spécialistes de l’IT.
Modulaire, l’architecture de référence Mirantis AI Factory permet d’assembler l’infrastructure à partir de templates réutilisables couvrant les couches de calcul, stockage, GPU et réseau, selon les besoins spécifiques de chaque charge de travail IA. Elle est compatible avec les accélérateurs IA NVIDIA, AMD et Intel.