En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer des contenus et services adaptés à vos centres d’intérêts. En savoir plus et gérer ces paramètres. OK X
 
 

 

 

Actualité des entreprises

Impact AI et le Cercle InterL lancent un module de formation

Publication: 30 janvier

Partagez sur
 
Un module de formation pour limiter les biais de genre dans l’usage de l’IA...
 

Afin de s’engager sur la voie d’une IA responsable, les deux collectifs proposent une formation en accès libre pour comprendre et se prémunir des biais de genre dans la conception de projets, qui reposent sur l’Intelligence Artificielle.

De nombreux programmes d’IA associent des mots tels que « programmation » avec « homme » et « tâches ménagères » avec « femme » ; Amazon a dû mettre un terme à son recrutement exclusivement via l’IA, car celle-ci ne sélectionnait aucun profil féminin…

Les nombreux exemples de biais de genre dans l’Intelligence Artificielle ont incité Impact AI et le Cercle InterL à proposer une formation gratuite, visant à identifier et limiter ces biais dus à la représentation inégale des femmes et des hommes, dans les informations et les données qui alimentent une décision.

La formation, à destination des étudiants au sein des écoles comme des utilisateurs déjà en emploi, comprend des exercices très précis, comme le test d’association implicite, de la sensibilisation, des études de cas, une méthodologie et la construction d’une charte d’engagement.

Elle vise à promouvoir une approche opérationnelle des biais de genre.

Les objectifs de ce module sont les suivants :

- Permettre de déceler un biais de genre potentiel ;

- Connaître les risques qu’il induit ;

- Identifier ce biais et le limiter à tous les stades du projet (idéation, qualification, développement, mise en production et usage) ;

- Mettre en place une méthode et des outils pertinents en fonction des risques identifiés.

Cette formation est mise à disposition en intégralité et gratuitement sur le site d’Impact AI selon les termes de la Licence Creative Commons Attribution.

« Avec le développement à grande échelle de l’IA, le risque est grand de reproduire et d’amplifier les biais de genre existants. De nombreuses situations de discriminations liées à l’IA existent déjà, c’est pourquoi nous avons conçu avec le Cercle InterL qui travaille depuis plusieurs années sur ce sujet, cette formation dont le déploiement doit pouvoir se faire en toute liberté et autonomie dans les organisations. » Hélène CHINAL, Responsable du groupe de travail « Formation » d’Impact AI & Directrice de la Transformation de Capgemini pour la région Europe du Sud

« L’identification et la réduction des biais de genre dans les futurs projets développés en IA sont des enjeux importants qui sont traités de manière accessible et ludique dans la formation. Quiz, tests et jeux de cartes entre points de vigilances et mesures préventives sont autant de moyens mis en œuvre pour engager les participants sur la voie d’une IA plus juste, pour toutes et tous. » Marine RABEYRIN, Responsable du groupe Femmes & IA, Cercle InterL & Directrice EMEA Segment Education, Lenovo.

https://www.impact-ai.fr/

https://www.interelles.com/

Suivez MtoM Mag sur le Web

 

Newsletter

Inscrivez-vous a la newsletter d'MtoM Mag pour recevoir, régulièrement, des nouvelles du site par courrier électronique.

Email: