En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer des contenus et services adaptés à vos centres d’intérêts. En savoir plus et gérer ces paramètres. OK X
 
 

 

 

Actualité des entreprises

IA agentique

Publication: 8 avril

Partagez sur
 
Keyfactor alerte sur les nouveaux défis de confiance liés au passage de l’automatisation à l’autonomie...
 

À mesure que l’intelligence artificielle évolue vers des systèmes capables d’agir et de décider par eux-mêmes, les entreprises basculent dans l’ère de l’IA agentique. Dans sa dernière édition du Digital Trust Digest, Keyfactor analyse ce passage de l’automatisation à l’autonomie et alerte sur les nouveaux défis de sécurité, de gouvernance et de responsabilité qu’il entraîne. Alors que les agents IA interagissent désormais directement avec les infrastructures et les données des entreprises, la question centrale devient celle de la confiance : comment contrôler, tracer et sécuriser des systèmes qui prennent désormais des décisions de manière autonome ?

De l’automatisation à l’autonomie : un changement de paradigme

Jusqu’à récemment, les systèmes d’IA intervenaient principalement comme des outils d’automatisation. Leur rôle consistait à suivre des instructions prédéfinies sous une supervision humaine constante. L’émergence des agents IA marque une rupture profonde. Ils prennent désormais des initiatives et sont capables d’analyser un contexte, de décider d’une action et de l’exécuter de manière autonome. Dans les environnements informatiques modernes, cette évolution signifie par exemple qu’un agent peut modifier une configuration d’infrastructure ou accéder à certaines données pour accomplir une mission. Cette capacité à agir de manière indépendante ouvre des perspectives considérables en matière d’efficacité et d’innovation.

Les dirigeants et responsables cybersécurité perçoivent clairement ce changement. Les résultats de l’étude Keyfactor montrent que près de 70 % des dirigeants estiment que les vulnérabilités liées à l’IA constitueront la principale menace dans l’année à venir, davantage que les erreurs humaines. Dans le même temps, moins de trois entreprises sur dix pensent être capables de stopper un agent IA incontrôlé avant qu’il ne provoque des dommages. Ces préoccupations ne traduisent pas une remise en cause du potentiel de l’IA, mais une incertitude quant à la maturité des entreprises à en maîtriser les limites dès lors que les systèmes commencent à agir de manière autonome.

L’identité numérique, fondement de la gouvernance des agents IA

Dans un environnement d’IA agentique, la question n’est plus seulement de savoir si un système fonctionne correctement, mais de comprendre comment il se comporte lorsqu’il agit seul. Les agents IA s’appuient sur des modèles probabilistes pour raisonner et prendre des décisions. Cette évolution transforme la cybersécurité : le défi ne consiste plus uniquement à protéger les accès aux systèmes, mais à surveiller, encadrer et gérer les comportements des entités autonomes qui opèrent en leur sein.

Pour Keyfactor, la confiance dans l’IA autonome repose sur un principe clé : chaque agent doit disposer d’une identité numérique forte, unique et vérifiable. Elle permet d’authentifier l’agent qui agit dans un système, de tracer précisément les actions qu’il réalise, d’appliquer des politiques de sécurité adaptées mais aussi de suspendre ou révoquer immédiatement un agent en cas de comportement suspect.

Dans un environnement où des systèmes prennent des décisions et exécutent des actions sans intervention humaine directe, l’identité devient l’infrastructure essentielle de la gouvernance de l’IA. La maîtrise de l’autonomie passe désormais par la maîtrise de l’identité.

Suivez MtoM Mag sur le Web

 

Newsletter

Inscrivez-vous a la newsletter d'MtoM Mag pour recevoir, régulièrement, des nouvelles du site par courrier électronique.

Email:


 

Dans la même rubrique