En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer des contenus et services adaptés à vos centres d’intérêts. En savoir plus et gérer ces paramètres. OK X
 
 

 

 

Dossiers

Prendre les cybercriminels à leur propre piège grâce à l’usage de l’IA

Par Dominique Ango, DG de Pindrop pour la région Europe du Sud

Publication: Janvier 2022

Partagez sur
 
L’incapacité à confirmer l’identité de la personne à l’autre bout du fil est une des difficultés à laquelle sont confrontés les centres d’appels...
 

La confirmation de l’identité de l’appelant s’effectue généralement par le biais de questions d’authentification, mais les fraudeurs sont en mesure d’exploiter cette méthode grâce à des techniques d’ingénierie sociale et le vol d’informations. Afin d’améliorer l’authentification basée sur des questions secrètes, les centres d’appels adoptent désormais la technologie du machine learning et l’Intelligence Artificielle (IA) comme nouveau moyen pour vérifier l’identité de l’appelant et ainsi aider les conseillers du centre d’appel.

Se mettre à l’abris des regards

Il existe plusieurs facteurs qui attirent les fraudeurs vers le canal téléphonique, notamment le fait qu’il est peu coûteux à utiliser et qu’il leur permet de se sentir anonymes, les rendant ainsi invulnérables. Contrairement aux interactions physiques et visuelles, les appelants sont en mesure de garder leur identité cachée, ce qui leur fournit un bouclier parfait derrière lequel se cacher lorsqu’ils mènent des activités frauduleuses. Bien que les processus de vérification aient aidé à lutter contre ce problème, ils ne résolvent toujours pas complètement la fraude. Les indicateurs évidents d’un comportement trompeur, tels que l’hésitation sur des mots, ne sont plus une méthode de détection fiable car les fraudeurs sont beaucoup plus habiles dans l’art de la tromperie ils commettent donc rarement ces erreurs.

L’objectif principal des centres d’appels est de fournir un bon service client plutôt que de traiter tous les appelants comme des fraudeurs potentiels. Cependant, les criminels chercheront à exploiter ce fait. Les techniques d’ingénierie sociale permettent aux fraudeurs d’utiliser les téléconseillers comme une excellente source de vérification des données. En effet, toute information précédemment volée ou récoltée par des fraudeurs peut être utilisée pour manipuler les téléconseillers afin qu’ils confirment la validité des données. Une fois qu’ils savent que les informations sont vérifiées, les criminels peuvent continuer à exploiter davantage leurs victimes en accédant à leurs comptes bancaires ou en déclarant de faux sinistres à l’assurance, par exemple.

Malheureusement, Les fraudeurs tirent avantage à la fois des téléconseillers et des systèmes de machines learning. Prenons le Serveur Vocal Interactif (SVI) avec son mode de fonctionnement bien connu des fraudeurs. Le SVI apparait comme étant un processus bien plus rapide qui évite aux fraudeurs d’avoir des échanges avec les téléconseillers et de potentiellement prendre le risque de se faire bloquer. En réalité, les machines peuvent être également utilisées pour automatiser les activités frauduleuses et ainsi réaliser des attaques à grande échelle, augmentant ainsi le niveau de profit des fraudeurs en cas de succès.

Changer de sens avec l’Intelligence Artificielle

Mais les centres d’appels renversent la vapeur grâce à l’usage de l’Intelligence Artificielle (IA) ! L’objectif principal étant de détecter les fraudeurs avant que le mal ne soit fait. Les centres d’appels sont souvent inondés d’appels, et la majorité d’entre eux sont des appels légitimes passés par des individus bien intentionnés ayant réellement besoin d’aide. Comme les centres d’appels ne veulent pas traiter leurs clients comme des fraudeurs, le défi consiste à identifier les mauvais appelants dans un océan de vrais clients. Il n’est pas humainement possible pour une seule personne d’examiner des dizaines de milliers d’appels en temps réel et de détecter un appelant frauduleux, c’est pourquoi les entreprises ont de plus en plus recours à la technologie. Les systèmes antifraude basés sur l’’IA spécialement conçus pour le canal téléphonique peuvent analyser simultanément l’audio, la voix, le comportement et une multitude de métadonnées pour détecter les signaux faibles indiquant un éventuel fraudeur. Le système évalue le risque d’un appel en temps réel et donc aide les équipes opérationnelles à détecter la fraude. De façon simple, ces mécanismes aident le quotidien des équipes en première ligne de la relation client.

De plus, l’IA peut aller encore plus loin en nous aidant à faire face à la menace croissante de la synthèse vocale. Bien que les technologies de pointe, telles que les ’’Deepfakes’’ ne soient pas encore répandues dans la communauté des fraudeurs, les progrès réalisés dans ce domaine suggèrent fortement que la menace se rapproche rapidement. Un bel exemple de technologie de Deepfake est présent dans le documentaire d’Anthony Bourdain, qui a été publié avec une recréation de la voix de Bourdain, ce qui nous donne un aperçu d’une réalité effrayante. La puissance de l’IA pourrait ouvrir un large éventail de grandes menaces si les criminels maîtrisaient cette technologie. À l’heure actuelle, les fraudeurs n’ont tendance à utiliser que des outils de changement de voix assez rudimentaire, mais l’évolution de l’IA appliquée à la synthèse vocale est proche.

La pérennité des centres d’appel nécessite une stratégie à base d’Intelligence Artificielle pour lutter contre la fraude. Comme nous l’avons vu : malgré les énormes progrès de la technologie, la voix humaine reste un outil puissant, largement utilisé par les cybercriminels. Le constat est sans appel, si les entreprises ne se préparent pas à l’évolution de la fraude vocale, elles pourraient se retrouver rapidement être victimes d’attaques dévastatrices. Et tout cela parce qu’elles ont été trompées par une simple voix.

https://www.pindrop.com/

Suivez MtoM Mag sur le Web

 

Newsletter

Inscrivez-vous a la newsletter d'MtoM Mag pour recevoir, régulièrement, des nouvelles du site par courrier électronique.

Email: