Le VAST AI OS s’appuiera sur les bibliothèques NVIDIA pour accélérer les services de calcul et de données pour le RAG, la recherche vectorielle, le SQL en temps réel et les applications agentiques.
VAST Data, l’entreprise à l’origine du système d’exploitation dédié à l’IA, annonce aujourd’hui, à l’occasion de son événement VAST Forward 2026, le lancement d’une stack de données IA entièrement accélérée par CUDA, de bout en bout, dans le cadre d’une collaboration renforcée avec NVIDIA. Désormais exécuté directement sur des serveurs NVIDIA, le VAST AI Operating System permet aux clients d’éliminer les goulets d’étranglement liés aux données dans les pipelines IA et d’unifier ingestion, récupération, analytics et inférence au sein d’une plateforme unique.
En accélérant à la fois les services de données et la couche de calcul en un système cohérent, le VAST AI OS élimine la complexité opérationnelle liée à l’assemblage de stacks de stockage, de base de données et d’infrastructure IA distincts. Il en résulte un chemin plus simple et plus rapide de l’expérimentation à la production pour les pipelines RAG, les systèmes agentiques et les workloads IA continus.
Conçu en collaboration avec NVIDIA, le VAST CNode-X inaugure une nouvelle génération de systèmes certifiés NVIDIA qui transforment la façon dont l’infrastructure IA est construite et opérée. Au-delà des services de stockage haute performance fournis aux clusters GPU, le VAST AI OS tourne désormais directement sur des serveurs GPU, faisant de ces systèmes des composants d’infrastructure à part entière au sein de la plateforme VAST. Cette évolution architecturale permet à VAST d’orchestrer les pipelines IA, les analytics haute performance, la recherche vectorielle, les systèmes RAG et les runtimes agentiques au sein d’une stack logiciel unique et unifiée.
Les nouveaux serveurs CNode-X constituent le socle de calcul permettant au VAST AI OS de tirer parti d’une large gamme de bibliothèques et d’API NVIDIA directement au sein des services logiciels centraux de VAST, notamment le VAST DataEngine et le VAST DataBase. Ces accélérations sont intégrées en profondeur dans la plateforme, offrant des performances accrues, une latence réduite et une meilleure efficacité pour les analytics SQL en temps réel, la recherche et la récupération vectorielles, ainsi qu’un large éventail de workflows d’inférence IA.
« Il y a dix ans, nous avons entrepris de construire un système capable de raffiner en permanence les données en intelligence et en action », déclare Renen Hallak, Fondateur & CEO de VAST Data. « Cette vision est désormais une réalité. En accélérant à la fois le calcul et les accès aux données au sein du VAST AI OS avec NVIDIA, nous offrons à nos clients un moyen plus rapide et plus simple d’opérationnaliser la récupération, l’analyse de données et les workflows agentiques sous la forme d’un pipeline cohérente, pour permettre à l’IA de passer du stade expérimental à des systèmes de production durables. »
« NVIDIA réinvente chaque pilier du calcul pour l’IA. Avec VAST Data, nous transformons le stockage de l’infrastructure IA », déclare Jensen Huang, Fondateur et CEO, NVIDIA. « Le CNode-X est accéléré par CUDA à chaque couche pour donner aux agents IA une mémoire persistante, leur permettant de travailler sur des problèmes complexes pendant des jours, des semaines, voire des années, sans oublier, ce qui ouvre ainsi la voie à la prochaine frontière de l’IA. »
Regardez cette vidéo avec Jensen Huang, Fondateur & CEO, NVIDIA, lors du VAST Forward sur l’avenir de l’infrastructure de données.
Avec les nouveaux serveurs VAST CNode-X comme fondation, VAST rassemble l’ensemble des capacités GPU de NVIDIA au sein du VAST AI OS et les déploie dans une plateforme logicielle full-stack qui exécute et orchestre les pipelines IA, les services de recherche vectorielle et les workloads de production. Les nouvelles fonctionnalités comprennent :
Accélération GPU-native du moteur SQL pour les pipelines analytics VAST DataBase : VAST fait évoluer la VAST DataBase pour accélérer les workloads analytics modernes sur l’ensemble du cycle de vie des requêtes, en associant l’intelligence côté stockage à l’exécution GPU au niveau de la couche de calcul. Le moteur de requêtes VAST DataBase combine une organisation intelligente des données, des mécanismes de pushdown et de filtrage qui réduisent les I/O inutiles, tandis que Sirius, un moteur de requêtes open source basé sur NVIDIA cuDF, assure l’exécution SQL accéléré par GPU au niveau de la couche de calcul. NVIDIA cuDF est une bibliothèque conçue pour accélérer l’analyse de données structurées. Cette approche complémentaire accélère à la fois le traitement en amont des données et le calcul lui-même, offrant une base de données simultanément optimisée pour le stockage et pour le GPU. Les premiers benchmarks de Sirius affichent jusqu’à 44 % de réduction du temps de requête et jusqu’à 80 % de réduction des coûts associés.
NVIDIA cuVS pour la recherche vectorielle et la récupération accélérées : En intégrant la bibliothèque cuVS de NVIDIA, le CNode-X apporte la puissance du GPU à la recherche vectorielle et au clustering de données pour les organisations utilisant VAST pour des services de bases de données vectorielles à grande échelle et la pipeline RAG de production VAST InsightEngine, basé sur le design de référence NVIDIA AI Data Platform, pour la pipeline RAG de production, améliorant la latence de récupération pour les applications IA en temps réel riches en contexte.
Modèles NVIDIA Nemotron et NIM Microservices pour les pipelines DataEngine à grande échelle : VAST déploie et prend désormais en charge les microservices NVIDIA NIM sur CNode-X pour des pipelines IA à grande échelle, et met en open source des blueprints VAST DataEngine prêts pour la production ciblant l’intelligence vidéo, le RAG documentaire en entreprise et la recherche en génomique.
NVIDIA CMX pour accélérer l’inférence à grande échelle : VAST prend en charge la plateforme NVIDIA Context Memory Storage (CMX), avec des configurations de cluster supportant les DPU NVIDIA BlueField-4 et le réseau Spectrum-X pour accélérer l’accès au cache KV partagé et réduire le time-to-first-token pour l’inférence longue durée et multi-agent. Cela donne aux agents un accès à la mémoire sur l’ensemble du pod. L’architecture Disaggregated Shared Everything (DASE) de VAST offre en outre la possibilité d’intégrer des services de données entreprise hors bande sans compromettre les temps de récupération KV.
VAST prévoit de commercialiser les serveurs CNode-X via des partenaires OEM de premier plan, notamment Cisco et Supermicro, permettant aux clients de se procurer une infrastructure GPU via leurs fournisseurs habituels tout en bénéficiant d’une expérience logicielle, support et opérations VAST homogène.
Grâce à des configurations certifiées développées avec ses partenaires OEM, VAST propose un chemin vers la production IA plus rapide et mieux supporté. À mesure que les pipelines IA d’dans l’entreprise s’inscrivent dans la durée, VAST combine sa plateforme de données à la stack de calcul NVIDIA pour garantir récupération haute performance, analytics et recherche vectorielle, et permettre aux GPU de rester pleinement productifs sur les workloads RAG, analytics en temps réel et IA à grande échelle.
« L’IA ne se développe pas à partir de composants isolés. Elle se développe grâce à des systèmes intégrés », déclare Jeremy Foster, SVP et Directeur Général, Cisco Compute. « Les clients ont besoin d’une infrastructure qui assure la sécurité des données et une parfaite cohérence avec le réseau intelligent et le calcul accéléré par GPU, pour une plateforme efficace et prête pour la production. La collaboration de Cisco avec des partenaires comme VAST et NVIDIA apporte aux organisations les fondations enterprise dont elles ont besoin pour faire évoluer l’IA en toute sécurité, avec performances, résilience et contrôle. »
« La production IA exige un niveau d’intégration inédit entre calcul, accélération et plateforme de données », déclare Charles Liang, Président et CEO, Supermicro. « Avec VAST Data et NVIDIA, nous livrons une plateforme de données IA véritablement intégrée, qui simplifie radicalement l’IA en entreprise. En réunissant calcul haute performance, infrastructure de données scalable et logiciel intelligent en une seule solution, nous permettons aux organisations d’aller plus vite du stade expérimental à la production, et de tirer une valeur business concrète de l’IA. »