Une application qui permet d’exécuter des modèles d’IA avancés directement sur les appareils mobiles, sans connexion ni dépendance au cloud
Paris, le 3 mars 2026 – Multiverse Computing, spécialiste des modèles d’intelligence artificielle compressés, annonce le lancement de CompactifAI App, une application mobile permettant d’exécuter des modèles d’IA avancés directement sur smartphone ou tablette, sans connexion Internet. L’application permet également, lorsque cela est nécessaire, de basculer vers des modèles cloud via API. Elle s’adresse aux professionnels mobiles, aux organisations soumises à de fortes contraintes de confidentialité et aux équipes opérant dans des environnements à connectivité limitée.
Si l’IA s’impose progressivement dans les entreprises et le secteur public, sa dépendance aux infrastructures cloud freine encore son déploiement dans certains contextes. Dans des secteurs comme la santé, le juridique, la défense, l’industrie ou les opérations terrain, la connectivité peut être instable — et les données trop sensibles pour être traitées à distance. CompactifAI App a été conçue pour répondre à ces enjeux en permettant un traitement local des modèles, directement sur l’appareil.
Au cœur de l’application se trouve la technologie CompactifAI, développée par Multiverse Computing. Fondée sur des mathématiques d’inspiration quantique, elle permet de compresser les modèles d’IA jusqu’à 95 %, tout en limitant la perte de précision à 2 à 3 %. À titre de comparaison, les méthodes de compression traditionnelles entraînent généralement une dégradation de performance de 20 à 30 % à des niveaux similaires.
Concrètement, des modèles nécessitant habituellement une infrastructure cloud conséquente peuvent ainsi fonctionner sur des appareils standards, sans compromis significatif sur leurs capacités de raisonnement.
Fonctionnement 100 % hors ligne : Les modèles peuvent être téléchargés directement sur l’appareil et utilisés sans connexion Internet ;
Routage intelligent des requêtes : Selon la complexité de la demande, l’application oriente automatiquement la requête vers le modèle embarqué ou vers un modèle accessible via API ;
Confidentialité intégrée : Le traitement local garantit que les données sensibles restent sur l’appareil, sans exposition externe ;
« Jusqu’à présent, faire tourner des modèles d’IA avancés en local impliquait de réduire leur taille ou leurs performances. Avec CompactifAI App, nous montrons qu’il est possible d’allier efficacité et puissance de calcul. Des modèles de raisonnement sophistiqués peuvent désormais fonctionner directement sur un appareil, sans dépendre d’une infrastructure cloud lourde. »
Ce lancement intervient après le lancement récent d’HyperNova, le modèle open source compressé de Multiverse Computing, qui a démontré qu’un niveau de raisonnement avancé pouvait être atteint avec des besoins nettement réduits en calcul, mémoire et énergie.
Avec CompactifAI App, l’entreprise décline désormais cette avancée technologique dans une application concrète, prête pour des déploiements opérationnels. CompactifAI App s’adresse notamment :
aux professionnels en mobilité
aux secteurs fortement régulés
aux organisations soumises à des exigences de souveraineté des données
aux environnements à faible connectivité