ExtraHop®, leader de la détection et de la réponse réseau (NDR) native dans le cloud, a publié aujourd’hui The Generative AI Tipping Point, un nouveau rapport de recherche qui révèle que les entreprises ont du mal à comprendre et à résoudre les problèmes de sécurité liés à l’utilisation de l’IA générative par les collaborateurs.
Ce rapport, qui analyse les stratégies des organisations pour sécuriser et régir l’utilisation des outils d’IA générative, décrit la dissonance cognitive des responsables de la sécurité alors que la technologie devient de plus en plus un pilier du travail. Selon les résultats, 73 % des responsables informatique ou sécurité admettent que leurs collaborateurs utilisent parfois ou fréquemment des outils d’IA générative ou de grands modèles de langage (LLM) au travail, mais ils ne savent pas comment traiter les risques de sécurité de manière appropriée.
Lorsqu’on leur pose la question, les DSI et RSSI s’inquiètent davantage de recevoir des réponses inexactes ou absurdes (40 %) plutôt que des problèmes liés à la sécurité, comme l’exposition d’informations personnelles identifiables (PII) de clients et d’employés (36 %), l’exposition de secrets commerciaux (33 %) et les pertes financières (25 %).
Près d’un tiers (32 %) des personnes interrogées ont déclaré que leur organisation avait interdit l’utilisation d’outils d’IA générative, une proportion similaire à celle des personnes très confiantes dans leur capacité à se protéger contre les menaces liées à l’IA (36 %). Malgré ces interdictions, seuls 5 % déclarent que les collaborateurs n’utilisent jamais ces outils au travail, ce qui indique que ces interdictions sont inefficaces.
Bien que près des trois quarts (74 %) des entreprises interrogées aient investi ou prévoient d’investir dans des protections contre l’IA générative ou des mesures de sécurité cette année, les responsables de l’informatique et de la sécurité souhaitent davantage être guidés. Une majorité (90 %) des personnes interrogées souhaitent que le gouvernement intervienne d’une manière ou d’une autre, 60 % étant favorables à des réglementations obligatoires et 30 % soutenant des normes gouvernementales que les entreprises peuvent adopter à leur guise.
Plus de quatre répondants sur cinq (82 %) sont très ou assez confiants dans la capacité de leur système de sécurité actuel à se protéger contre les menaces des outils d’IA générative. Cependant, moins de la moitié ont investi dans une technologie qui aide leur organisation à surveiller l’utilisation de l’IA générative. En outre, seulement 46 % ont mis en place des politiques régissant l’utilisation raisonnable, et 42 % forment les utilisateurs à une utilisation sûre de ces outils.
Après le lancement de ChatGPT en novembre 2022, les entreprises ont eu moins d’un an pour évaluer pleinement les risques par rapport aux avantages des outils d’IA générative. Dans un contexte d’adoption rapide, il est important que les chefs d’entreprise comprennent mieux l’utilisation de l’IA générative par leurs employés afin qu’ils puissent ensuite identifier les lacunes potentielles dans leurs protections de sécurité pour s’assurer que les données ou la propriété intellectuelle ne sont pas partagées de manière inappropriée.
« Il existe une formidable opportunité pour l’IA générative d’être une technologie révolutionnaire sur le lieu de travail », a déclaré Raja Mukerji, cofondateur et Chief Scientist chez ExtraHop. « Cependant, comme pour toutes les technologies émergentes que nous avons vu devenir un élément essentiel des entreprises modernes, les dirigeants ont besoin de plus de conseils et d’éducation pour comprendre comment l’IA générative peut être appliquée dans leur organisation et les risques potentiels qui y sont associés. En associant l’innovation à de solides mesures de protection, l’IA générative continuera d’être une force qui fera évoluer des secteurs entiers dans les années à venir. »