En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer des contenus et services adaptés à vos centres d’intérêts. En savoir plus et gérer ces paramètres. OK X
 
 

 

 

Actualité des entreprises

CONFIANCE.AI et IEEE s’associent

Publication: Avril 2022

Partagez sur
 
Objectif : Garantir ensemble la conception d’une IA de confiance robuste en termes à la fois d’éthique et de technologies...
 

Le collectif du programme Confiance.ai annonce la signature d’un Memorandum of Understanding (MoU) avec IEEE, la plus grande organisation professionnelle technique au monde dédiée à l’avancement de la technologie au profit de l’humanité. Cette collaboration vise à ce que les processus du standard IEEE 7000 (relatif à la prise en compte des valeurs éthiques dans le développement d’un produit ou d’un service) deviennent partie intégrante des bonnes pratiques développées par Confiance.ai, puis portées en standardisation au CEN-CENELEC (JTC21). Les approches des 2 partenaires sont complémentaires, IEEE apportant le référentiel et Confiance.ai la dimension technologique.

Concrètement, cette collaboration se déroulera en deux temps :

Dans une première phase, le collectif Confiance.ai testera sur l’un de ses cas d’usage le standard IEEE 7000 centré sur la prise en compte de valeurs éthiques tout au long du processus de conception d’un système. Sera également conduite une « analyse des écarts » entre les attentes de Confiance.ai et les standards IEEE relatifs à l’éthique, notamment IEEE 7000. Ensemble, les partenaires prévoient d’étudier ensuite la possibilité de lancer un projet pilote de certification éthique IEEE, avec un ou plusieurs membres de Confiance.ai. A l’issue de ces étapes, sera défini un plan de collaboration détaillé entre les deux partenaires, lequel sera exécuté dans la deuxième phase du partenariat.

Le MoU inclut ensuite une étape de coopération sur la standardisation européenne au CEN-CENELEC (JTC21) afin que Confiance.ai fasse adopter les bonnes pratiques issues de la première phase en standardisation. Le collectif et IEEE contribueront alors à l’élaboration d’un catalogue des risques et à une cartographie des caractéristiques de la notion de confiance.

« Le domaine de l’IA de confiance pose des enjeux forts en termes de standardisation et d’éthique. Nous sommes heureux de signer ce partenariat avec IEEE et de répondre ainsi à ces enjeux. Parmi les beaux résultats de Confiance.ai, nous comptons la plateforme DebiAI qui va permettre d’outiller cette démarche d’IA éthique », commente Paul Labrogère, Directeur Général de SystemX, IRT pilote du programme Confiance.ai et signataire du partenariat avec IEEE.

« Le besoin de systèmes d’IA dignes de confiance est placé très haut dans toutes les listes de principes d’IA qui sont apparues au cours des dernières années. Ce qui fait la différence, ce sont les mesures et les actions concrètes pour mettre en pratique ce principe de haut niveau, et faire de cette pratique un élément intrinsèque des politiques d’innovation. La collaboration entre Confiance.AI et l’IEEE vise précisément à cela. L’expérience acquise par notre collaboration dans ce domaine stratégique bénéficiera grandement au paysage de l’innovation en France et en Europe. Cela créera également un modèle qui, espérons-le, inspirera un mouvement mondial », ajoute Dr. Ing. Konstantinos Karachalios, Directeur Général de IEEE SA.

Ce partenariat avec un organisme international de la standardisation est le second signé par le collectif Confiance.ai. Il intervient après la signature en janvier dernier d’un MoU avec EUROCAE, l’organisation européenne pour l’équipement de l’aviation civile. Confiance.ai entend poursuivre cette dynamique dans ce sens en nouant des collaborations avec des organismes de référence dans le domaine du véhicule autonome, de l’énergie, de la défense, etc.

https://www.confiance.ai/

Suivez MtoM Mag sur le Web

 

Newsletter

Inscrivez-vous a la newsletter d'MtoM Mag pour recevoir, régulièrement, des nouvelles du site par courrier électronique.

Email: