En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer des contenus et services adaptés à vos centres d’intérêts. En savoir plus et gérer ces paramètres. OK X
 
 

 

 

Actualité des entreprises

Grok, l’IA de X au cœur d’une controverse mondiale

Publication: 8 janvier

Partagez sur
 
Fait l’objet de vives critiques après que des utilisateurs ont détourné l’outil pour produire des images de femmes et d’enfants portant des maillots de bain ou des sous-vêtements particulièrement suggestifs...
 

La plateforme d’Elon Musk est désormais visée par des enquêtes réglementaires en Europe, en Inde et en Malaisie, à la suite de la génération par Grok d’images deepfake explicites, dont certaines représenteraient des abus sexuels sur des mineurs. Aux États-Unis, le National Center on Sexual Exploitation (NCOSE) appelle le ministère de la Justice ainsi que la Federal Trade Commission (FTC) à ouvrir une enquête sur ces faits.

Benoit Grunemwald - Expert en Cybersécurité chez ESET France réagit

La montée en puissance des outils d’intelligence artificielle générative met en lumière la facilité avec laquelle des contenus explicites peuvent être produits et diffusés à grande échelle, au détriment de la dignité et de la vie privée des individus. Les deepfakes, notamment les « fakenudes », exploitent des algorithmes avancés pour superposer le visage d’une personne sur des corps dans des vidéos ou photos à caractère sexuel. Il est ainsi possible de « dénuder » une personne sur une photo ou vidéo. Tout ceci s’effectue sans le consentement des intéressés. Cette technologie, accessible et rapide, favorise la viralité des abus et pose un défi majeur aux législateurs et aux plateformes.

L’exemple coréen : mobilisation sociale et réponse législative

En Corée du Sud, la prolifération des deepfakes pornographiques a suscité une vague de manifestations, principalement portées par des groupes de défense des droits des femmes. Les victimes, souvent des mineures ou des célébrités, ont dénoncé l’absence de cadre légal adapté et la passivité des autorités face à ce nouveau type de violence numérique. Les protestations ont accéléré l’adoption d’une loi spécifique, criminalisant non seulement la création mais aussi la possession et le visionnage de contenus deepfake explicites. Les peines encourues sont désormais sévères, jusqu’à trois ans de prison et 20 000 euros pour les consommateurs. L’État est également tenu de supprimer ces contenus et d’ouvrir des centres d’aide aux victimes. Cette mobilisation sociale a été déterminante : elle a permis de faire évoluer la loi avant que les abus ne deviennent incontrôlables, illustrant l’importance de la pression citoyenne dans l’élaboration du droit numérique. Toutefois, des interrogations subsistent sur l’application effective des sanctions et la capacité des autorités à suivre le rythme des innovations techniques.

La France, pionnière avec la loi SREN

À l’inverse de la Corée du Sud, la France a anticipé le phénomène en promulguant la loi SREN (Sécuriser et Réguler l’Espace Numérique) dès mai 2024. Cette loi crée un délit spécifique d’hypertrucage à caractère sexuel (article 226-8-1 du Code pénal), punissant la création, la diffusion et la possession de deepfakes portant atteinte à la dignité des personnes par trois ans d’emprisonnement et 75 000 euros d’amende. La première condamnation sur ce fondement a eu lieu en mai 2025, démontrant la réactivité du système judiciaire français.La loi SREN va plus loin en imposant aux plateformes des obligations de transparence et de retrait rapide des contenus illicites, tout en renforçant la protection des mineurs et la lutte contre la désinformation en période électorale. Elle s’inscrit dans une dynamique européenne (DSA, DMA) et prévoit des sanctions adaptées à la gravité des faits, tout en offrant un cadre pour l’accompagnement des victimes (ex : association E-enfance, point de contact, 17cyber). Des actions de sensibilisation sont menées pour éviter la survenance de tels faits, Lumérique en est un bon exemple, cette initiative va sensibiliser les jeunes dans les collèges.

Analyse technique et juridique croisée

Techniquement, la détection et la suppression des deepfakes restent un défi : les algorithmes évoluent rapidement, rendant la distinction entre vrai et faux de plus en plus complexe. Juridiquement, la France se distingue par une approche proactive, alors que la Corée du Sud a légiféré sous la pression sociale. Les deux modèles montrent que la lutte contre les deepfakes nécessite une alliance entre innovation technique (détection, traçabilité), mobilisation citoyenne et adaptation rapide du droit. »

Suivez MtoM Mag sur le Web

 

Newsletter

Inscrivez-vous a la newsletter d'MtoM Mag pour recevoir, régulièrement, des nouvelles du site par courrier électronique.

Email: