HPE (NYSE : HPE) annonce aujourd’hui sa participation au (Privacy Auditing of AI Models), initiative portée par un consortium public de premier plan réunissant la CNIL, l’ANSSI, le PEReN et Inria (projet IPoP, PEPR Cybersécurité). Partenaire officiel de cette démarche, HPE mobilise l’expertise de son Trust Office France, des capacités de son AI Factory Lab de Grenoble et de ses équipes Advisory & Professional Services (A&PS) pour contribuer à l’émergence d’un standard européen d’audit de conformité RGPD des modèles d’IA.
C’est précisément l’objectif de PANAME : fournir une bibliothèque logicielle open source, standardisée, permettant de réaliser différentes analyses d’attaques complémentaires, comme :
Les attaques par inférence d’appartenance visent à déterminer si une donnée personnelle a été utilisée pour entraîner un modèle donné.
Les attaques par reconstruction évaluent la capacité d’un modèle à résister à des tentatives de reconstruction de ses données d’entraînement.

Ensemble, ces techniques permettent de documenter la robustesse d’un modèle vis-à-vis des exigences du RGPD, qu’il s’agisse d’un modèle de langage, d’un système de vision par ordinateur, d’un modèle custom développé en entreprise ou d’un modèle de machine learning classique.
La participation de HPE au projet PANAME est portée par le Trust Office HPE France, dont la mission est d’accompagner les organisations dans leurs enjeux de conformité, d’éthique et de souveraineté numérique.
« La question de la conformité RGPD des modèles d’IA est incontournable : elle préoccupe clairement nos concitoyens et nos clients avec les autorités de contrôle qui multiplient maintenant les sanctions. Notre participation au projet PANAME est une manifestation concrète de l’engagement du Trust Office HPE France auprès de nos clients pour les accompagner dans leur conformité en traduisant en solutions techniques opérationnelles les exigences réglementaires et créer ainsi un écosystème de confiance. » Olivier Paris, Directeur Trust Office HPE France
Les tests sont menés par l’équipe des architectes de solutions de l’AI Factory Lab, en collaboration avec les équipes HPE Advisory & Professional Services (A&PS), qui conseillent et accompagnent les entreprises dans la conception et l’exécution de leurs projets de transformation IA, de l’architecture à la mise en production.
Centre névralgique de l’innovation en Europe, l’AI Factory Lab de HPE à Grenoble, développé en partenariat avec NVIDIA, met son infrastructure souveraine et sécurisée à disposition des organisations qui souhaitent tester leurs modèles dans des conditions conformes aux exigences les plus strictes en matière de protection des données et de conformité réglementaire. Les tests menés dans le cadre de PANAME y sont conduits sur un large panel de modèles, grands modèles de langage, systèmes de vision par ordinateur, modèles custom développés sur des données propriétaires, reflétant la diversité des cas d’usage rencontrés par les entreprises et leurs clients.
« Ce qui rend notre participation à PANAME vraiment intéressante, c’est la diversité des modèles que nous sommes en mesure de tester, des grands modèles de langage aux systèmes de vision par ordinateur, jusqu’aux modèles développés pour des clients sur des données propriétaires. Nous contribuons à valider PANAME là où ça compte vraiment : dans des conditions proches de la réalité des entreprises. À terme, notre ambition est d’intégrer ces capacités d’audit directement dans HPE AI Factory, pour que la conformité RGPD devienne une étape naturelle du pipeline de production des modèles. » Pierre Hoffer, Grenoble Competency Center Director at Hewlett Packard Enterprise, HPE
Dans le cadre de la phase de test en cours, HPE travaille à l’exécution de PANAME sur un large panel de modèles et à la remontée structurée de feedbacks au consortium, portant notamment sur l’intégration technique et la robustesse de l’outil face à des configurations d’entreprise.
À terme, HPE entend proposer un service d’audit automatisé intégré à HPE AI Factory : les équipes data science pourront ainsi inclure une étape d’audit de conformité RGPD directement dans leur pipeline de développement et de mise en production des modèles.