
Après la diffusion de contenus sexuels et sexistes générés par Grok, le chatbot intégré au réseau social X, le gouvernement français a saisi la justice et le régulateur. Une mise à l’épreuve de la réglementation européenne sur les plateformes en ligne et l’intelligence artificielle.
Le 2 janvier 2026, le gouvernement a saisi le parquet de Paris et l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) pour signaler des contenus sexuels générés par Grok, le modèle d’intelligence artificielle générative développé par xAI et intégré au réseau social X (ex-Twitter).
Des deepfakes à caractère sexuel
Des utilisateurs du réseau social racheté par Elon Musk ont exploité l’outil d’édition du chatbot pour générer des versions sexualisées de photographies de personnes réelles à partir d’images postées, autrement dit des deepfakes.
Dans certains cas, les requêtes visaient explicitement à produire des images de femmes dénudées ou mises en scène de manière sexuelle, sans le consentement des personnes concernées. Des images impliquant des mineurs auraient également été générées.
La justice saisie
Face à cette situation, les ministres français compétents ont saisi la justice sur le fondement de l’article 40 du code de procédure pénale, estimant que certains contenus relevaient de faits “manifestement illicites”. Les signalements ont également été transmis à la plateforme dédiée Pharos afin d’obtenir le retrait rapide des images concernées.
Le gouvernement rappelle que “les atteintes à caractère sexuel commises en ligne constituent des infractions pénales à part entière et tombent pleinement sous le coup de la loi, au même titre que celles commises hors ligne».
X a-t-il manqué aux obligations du DSA ?
En parallèle de la voie judiciaire, le gouvernement a saisi l’Arcom au titre du Digital Services Act (DSA), ce texte européen qui encadre les plateformes en ligne. L’objectif est d’examiner si X a manqué à ses obligations en matière de prévention et de limitation de la diffusion de contenus illicites.
Pour rappel, le réseau social X est classé comme “une très grande plateforme” au sens du DSA. A ce titre, il doit évaluer les risques systémiques liés à ses services, mettre en place des mesures d’atténuation adaptées et démontrer l’efficacité de ses dispositifs de modération.
En Inde et en Malaisie, des questions similaires se sont posées avec des demandes de retrait formulées par les autorités. Face aux critiques, la société xAI fondée par Elon Musk lancée en 2023 pour concurrencer OpenAI notamment, a reconnu l’existence de défaillances dans les mécanismes de protection de Grok. L’entreprise avait indiqué travailler à leur correction et assurait renforcer ces dispositifs visant à empêcher la génération de contenus sexuels.
X condamné à une amende de 120 millions d’euros
Le DSA a déjà permis de condamner la plateforme X. Début décembre 2025, la Commission européenne a condamné le réseau social à une amende de 120 millions d’euros pour une série de violations, dont la conception trompeuse de sa “coche bleue” (identifiant les comptes vérifiés), le manque de transparence de son registre des annonces publicitaires et l’absence d’accès aux données publiques.
Le DSA est aujourd’hui le principal levier juridique. En effet, en tant que très grande plateforme en ligne, X a des obligations à respecter. Concrètement, si l’outil facilite la production de deepfakes à caractère sexuel, la plateforme doit démontrer qu’elle a mis en place des mesures de prévention adaptées, telles que des filtres, des limitations fonctionnelles ainsi que des procédures de retrait rapides.
Le sujet est pris très au sérieux par la Commission européenne, d’après un porte-parole de l’institution. “X est parfaitement au courant que nous appliquons très rigoureusement le règlement sur les services numériques et nous encourageons toutes les entreprises à s’y conformer”, a-t-il déclaré.
L’AI Act, un futur instrument de contrainte ?
L’Union européenne encadre également désormais l’intelligence artificielle avec l’AI Act. A ce stade, il ne constitue cependant pas l’instrument principal pour traiter la diffusion de contenus illicites en ligne générés par un modèle d’IA.
Le texte introduit néanmoins plusieurs obligations pour les fournisseurs de modèles d’IA à usage général, comme Grok. Il prévoit des exigences en matière de gestion des risques, de documentation technique et de transparence sur les capacités, les limites et les usages prévisibles des modèles, sans imposer à ce stade de mécanismes opérationnels de modération des contenus générés.
Dans le cas de Grok, l’AI Act pourrait à terme servir à apprécier la manière dont les risques ont été identifiés et pris en compte lors de la conception et du déploiement du modèle.
X dans le viseur du Royaume-Uni
Au Royaume-Uni, l’Ofcom, le régulateur britannique des télécommunications, a également pris contact de manière “urgent” avec le réseau social X à la suite de génération de deepfakes à caractère sexuel. Le régulateur examine ces faits au regard de l’Online Safety Act, qui interdit la création et la diffusion d’images intimes ou sexuellement explicites non consenties, y compris lorsqu’elles sont générées par intelligence artificielle.
En France, Grok est également dans le viseur des autorités judiciaires pour avoir généré des propos négationnistes. Le modèle avait notamment affirmé à tort que les chambres à gaz d’Auschwitz avaient été conçues “pour la désinfection au Zyklon B contre le typhus, avec des systèmes d’aération adaptés à cet usage plutôt qu’à des exécutions massives».
Pris dans leur ensemble, ces épisodes font de Grok un cas d’école pour la régulation européenne du numérique. Ils illustrent la manière dont plusieurs cadres juridiques — droit pénal, Digital Services Act et AI Act — s’articulent progressivement pour répondre aux risques posés par le déploiement rapide de l’IA générative.


