Mirantis, leader des solutions open source qui garantissent aux entreprises la totale maîtrise de leur infrastructure stratégique, et Gcore, fournisseur mondial de solutions d’edge AI, cloud, réseau et sécurité, annoncent aujourd’hui un partenariat visant à simplifier le déploiement des infrastructures informatiques dédiées aux charges de travail liées à l’intelligence artificielle (IA). La pierre angulaire de cette collaboration est l’intégration de Gcore Everywhere Inference avec la plateforme open-source Mirantis k0rdent, permettant aux utilisateurs de faire évoluer sans effort les charges de travail d’inférence IA à l’échelle mondiale.
« L’adoption de l’IA en entreprise entre dans une nouvelle phase et l’open source a un rôle essentiel à jouer : assurer l’interopérabilité entre les clouds publics, privés et managés, afin que les utilisateurs puissent conserver leur autonomie et le contrôle de leur infrastructure globale », déclare Alex Freedland, PDG de Mirantis. « En combinant notre expertise et notre engagement en faveur des technologies open source avec le savoir-faire de Gcore en matière d’IA, nous accélérons notre capacité à développer des solutions adaptées aux besoins des ingénieurs MLOps et de plateformes. »
Mirantis a récemment lancé k0rdent, une solution de gestion des applications à grande échelle sur tout type d’infrastructure, et prévoit d’intégrer Gcore Everywhere Inference pour aider les entreprises mondiales à fournir une inférence IA partout où elle est nécessaire. Ainsi, elles pourront optimiser l’allocation de leurs ressources de calcul, accéder à des modèles d’IA prêts à l’emploi, mieux contrôler leurs coûts et garantir la conformité avec les réglementations locales sur la souveraineté des données. Cette technologie flexible peut être déployée dans le cloud, sur site ou dans des environnements hybrides et edge.
“Mirantis et Gcore unissent leurs forces pour relever les défis liés aux infrastructures d’IA”, déclare Seva Vayner, directeur produit, Edge Cloud et IA chez Gcore. “Le projet k0rdent, récemment annoncé par Mirantis, offre aux ingénieurs plateforme une solution open-source native Kubernetes pour gérer la prolifération des infrastructures et la complexité opérationnelle dans des environnements multi-cloud et hybrides. Avec l’intégration de Gcore Everywhere Inference, une solution indépendante des accélérateurs pour gérer les charges de travail d’inférence IA, le projet offrira aux entreprises une plateforme facile à utiliser pour déployer et tirer profit de l’inférence IA distribuée à grande échelle.”
« Le déploiement de l’IA à grande échelle peut nécessiter beaucoup de temps et de ressources : avec une infrastructure inadaptée, les entreprises peuvent prendre un temps considérable pour intégrer de nouveaux GPU et nécessiter plusieurs heures, voire des jours, pour déployer de nouveaux modèles, » explique Misch Strotz, PDG et cofondateur de LetzAI. « Grâce à la collaboration entre Gcore et Mirantis, ces processus sont considérablement simplifiés : les modèles peuvent être déployés en quelques clics et l’ajout de nouveaux GPU se fait en quelques heures, améliorant ainsi la productivité des équipes infrastructure et machine learning ».
En tant que fournisseur mondial d’infrastructure IA, Gcore accompagne les entreprises dans l’adoption de l’IA. Aujourd’hui, avec la demande croissante pour l’inférence IA, Gcore Everywhere Inference permet aux entreprises d’optimiser les charges de travail d’inférence en allouant dynamiquement les ressources informatiques là où elles sont les plus nécessaires, des data centers centralisés jusqu’aux périphéries les plus éloignées.
Mirantis et Gcore présenteront leurs technologies communes lors d’événements majeurs comme NVIDIA GTC et KubeCon Europe, où ils démontreront la puissance de leurs solutions combinées.