Selon une nouvelle enquête publiée par le Threat Labs de Netskope, le phishing représente, en Europe, la méthode de prédilection des cyberattaquants qui cherchent à déjouer les contrôles de sécurité pour accéder à des environnements sensibles. Les experts de l’organisation spécialisée dans la sécurité et les réseaux indiquent en outre qu’Adobe est la marque la plus souvent usurpée par les cybercriminels : elle apparaît en effet dans près d’un tiers (29 %) des campagnes de phishing visant à subtiliser des identifiants permettant d’accéder à des services numériques. Microsoft pointe en deuxième position avec 26 % des tentatives d’usurpation, lancées essentiellement en vue d’accéder à des comptes Microsoft 365. Ces résultats soulignent la persistance d’un cyber-risque élevé, les attaquants utilisant des méthodes d’ingénierie sociale pour exploiter la familiarité des utilisateurs européens avec les applications cloud les plus courantes en abusant de la confiance qu’ils accordent implicitement à ces outils de bureautique.
Les autres enseignements de ce rapport :
25 % des entreprises européennes bloquent l’utilisation de Grok AI, le chatbot d’intelligence artificielle générative développé par xAI, la société d’Elon Musk. Les entreprises se servent de préférence des alternatives qu’elles jugent mieux adaptées à une utilisation en entreprise, parmi lesquelles ChatGPT d’OpenAI ou Gemini de Google. Créé par l’entreprise britannique Stability AI, le générateur d’images Stable Diffusion est en outre l’application d’IA générative la plus fréquemment bloquée par les entreprises européennes.
Plus d’un tiers des compromissions des politiques de données liées aux applications d’IA générative en Europe (34 %) concernent des données règlementées, c’est-à-dire des données protégées par le RGPD et d’autres directives relatives à la confidentialité ; ce chiffre démontre l’ampleur du risque que l’utilisation de l’IA générative représente pour la protection des données dans la région. Parmi les autres compromissions de politiques de données figurent le partage du code source (31 %), la propriété intellectuelle (28 %), ainsi que les mots de passe et les clés de sécurité (6 %).
La quasi-totalité des entreprises européennes (97 %) utilisent des outils qui incluent des fonctionnalités assistées par l’IA générative, à savoir Atlassian, Grammarly, et même Microsoft 365 et Google Docs. Toutefois, l’utilisation de comptes d’IA générative personnels sur le lieu de travail a diminué de manière significative au cours de l’année écoulée, passant de 73 % à 58 %. Ce recul est partiellement dû à l’essor de solutions d’entreprise de meilleure qualité, mais également au fait que les entreprises contrôlent l’utilisation des comptes personnels sur le lieu de travail avec une confiance accrue.
« L’adoption de l’IA générative est en forte hausse en Europe et a tendance à devenir universelle, » déclare Gianpietro Cutolo, Cloud Threat Researcher au Netskope Threat Labs. « Cependant, cet engouement n’est pas sans soulever certains défis pour la sécurité des données, et nous assistons à une hausse significative de l’exposition des données sensibles et règlementées par le biais de ces plateformes. Les entreprises vont être de plus en plus amenées à adopter des technologies de sécurité et de protection des données capables d’aider leurs collaborateurs à neutraliser des attaques conçues spécifiquement pour tirer parti de la psychologie humaine. Aucune application, ni aucun échange de données via une application, ne doit être considéré comme fiable ni dispensé de la mise en œuvre de règles de sécurité robustes. »
Ainsi, il convient pour les entreprises de revoir leur posture de sécurité globale et d’adopter des outils avancés de prévention des pertes de données (DLP) capables de sécuriser l’IA dans le cadre d’une stratégie élargie de protection des données.