Récemment des études ont démontrées que les Big Tech influenceraient fortement les décisions prises dans le cadre de la rédaction du code de bonnes pratiques. Rappelons que l’IA Act classe les technologies utilisées pour trier les CV, analyser les entretiens ou évaluer les soft skills comme des systèmes à haut risque, soumis à des règles strictes de transparence et de traçabilité.
De ce fait, même si cette loi risque de mettre plus de temps que prévu à entrer en vigueur, il est essentiel pour les professionnels des ressources humaines d’anticiper les changements à venir. L’IA est déjà largement présente dans le recrutement puisque 68 % des entreprises de plus de 500 employés utilisent désormais des outils d’IA dans leurs processus de recrutement, contre seulement 25 % en 2020.
Pauline Bugnand, Responsable du Développement des Programmes IA d’iCIMS, précise : « Une IA responsable doit être Éthique, Transparente, Robuste, Sécurisée, Fiable et Dirigée par l’Humain.
Prenons un exemple : d’un point de vue statistique, il y a plus de postes de direction associés au mot “directeur » que “directrice”. L’IA va donc apprendre cela et risque d’amplifier des biais existants sans supervision.
C’est pourquoi chaque décision algorithmique doit rester vérifiée, assumée et corrigible par un humain. », elle poursuit : « Le rôle de l’éditeur IA est de garantir des systèmes audités et conformes, mais la responsabilité finale repose aussi sur l’entreprise utilisatrice. Ce n’est qu’en travaillant ensemble que l’on pourra faire de l’IA un levier de recrutement plus juste et plus inclusif. »
Concernant les professionnels du recrutement :
Qu’est-ce que cette loi va changer pour ceux utilisant l’IA au quotidien ?
Quelles sont les mesures à mettre en place pour respecter cette loi ?
Qu’est-ce que l’IA responsable ? Comment la mettre en place ?
Quelles solutions concrètes existent pour intégrer une IA éthique dans les processus de sélection ?
Quelles sont les premières interdictions mises en place ?