L’enquête lancée par l’Union européenne contre X ouvre un nouveau front réglementaire majeur. Bruxelles soupçonne la plateforme d’avoir laissé circuler, via son intelligence artificielle Grok, des images sexualisées de femmes et de mineurs, en contradiction potentielle avec le droit européen.
Images sexualisées sur Grok : l’enquête européenne est lancée

Le 26 janvier 2026, la Commission européenne a officiellement ouvert une enquête contre X. Cette procédure s’inscrit dans l’application du Digital Services Act, pierre angulaire du nouveau cadre européen encadrant les grandes plateformes numériques. En ligne de mire, la génération et la diffusion, entre fin décembre 2025 et début janvier 2026, d’images sexualisées par Grok, l’outil d’intelligence artificielle intégré à la plateforme.
Le réseau social X a-t-il contrevenu au DSA ?
L’enquête engagée par l’Union européenne repose sur les obligations renforcées imposées par le Digital Services Act. Ce texte contraint les très grandes plateformes à identifier, évaluer et réduire les risques systémiques liés à leurs services. Dans le cas de X, la Commission cherche à déterminer si le déploiement de Grok s’est accompagné de mesures suffisantes pour prévenir la diffusion de contenus illicites, en particulier lorsqu’ils concernent des femmes ou des mineurs. Selon Reuters, Bruxelles examine si ces risques ont été correctement anticipés dès la mise à disposition des fonctionnalités litigieuses.
Les autorités européennes analysent également les systèmes de recommandation de X, suspectés d’avoir contribué à la visibilité accrue des images sexualisées. The Register rapporte que la Commission s’intéresse à l’architecture algorithmique globale de la plateforme, afin de vérifier si elle respecte les exigences de prévention prévues par le droit européen.
Enquête sur Grok et les images sexualisées reprochées à X
Le cœur de l’enquête concerne la production massive d’images sexualisées par Grok sans le consentement des personnes concernées. Une étude du Center for Countering Digital Hate, citée par The Guardian, estime qu’environ trois millions d’images de ce type ont été générées en moins de deux semaines. Parmi elles, près de 23 000 pourraient impliquer des mineurs. Ces chiffres, particulièrement élevés, ont immédiatement alerté les autorités européennes.
« Les deepfakes sexuels non consensuels visant des femmes et des enfants sont une forme de dégradation violente et inacceptable », a déclaré Henna Virkkunen, vice-présidente de la Commission. Cette prise de position renforce la portée de l’enquête, désormais centrée sur la protection des personnes vulnérables et sur la responsabilité des plateformes utilisant l’intelligence artificielle.
Risques juridiques et financiers pour X
Les conséquences potentielles de l’enquête sont lourdes pour X. En cas de violation avérée du Digital Services Act, la Commission européenne peut infliger une amende allant jusqu’à 6 % du chiffre d’affaires mondial de l’entreprise, rappelle Reuters. Cette sanction maximale souligne la fermeté du cadre réglementaire européen et la volonté de dissuasion affichée par Bruxelles.
Au-delà des sanctions financières, l’enquête peut également déboucher sur des obligations correctives contraignantes. La Commission est en mesure d’exiger des modifications techniques profondes des outils d’intelligence artificielle ou d’imposer des restrictions d’usage. X avait déjà été condamnée en décembre 2025 à une amende de 120 millions d’euros dans un autre dossier lié au Digital Services Act. Ce précédent accentue la pression réglementaire pesant sur la plateforme.
