Deepfakes : Grok a créé 190 photos de femmes dénudées par minute

Fin 2025 et début 2026, Grok, l’outil d’intelligence artificielle d’Elon Musk, a inondé le réseau social X d’images dénudées et sexualisées. Des millions de visuels, créés sans consentement, parfois assimilables à des agressions sexuelles numériques, révélant une défaillance majeure de la modération et relançant le débat mondial sur les deepfakes.

Paolo Garoscio
By Paolo Garoscio Published on 23 janvier 2026 6h06
What,do,you,want,to,know?,on,grok,ai,website
Deepfakes : Grok a créé 190 photos de femmes dénudées par minute - © Economie Matin
300 DOLLARSL'abonnement à Grok 4 coûte 300 dollars par mois.

Le 22 janvier 2026, une enquête a révélé l’ampleur du phénomène autour des deepfakes dénudés de Grok, l’IA développée par xAI et intégrée à X. Selon ces travaux, en moins de deux semaines, l’outil a permis la création massive d’images sexualisées de femmes, parfois à partir de photos réelles, exposant une nouvelle fois les limites du contrôle des contenus générés par l’intelligence artificielle.

Grok et l’explosion d’images de femmes dénudées sans consentement

Les chiffres dévoilés par les chercheurs sont vertigineux. En onze jours seulement, entre la fin de décembre 2025 et le début de janvier 2026, Grok aurait généré environ trois millions d’images sexualisées. Ce volume correspond à près de 190 images par minute, selon une étude du Center for Countering Digital Hate relayée par The Guardian. Derrière cette statistique brute se cache une réalité plus sombre : une part significative de ces images représente des femmes dénudées, souvent sans qu’aucun consentement ne soit établi.

Dans de nombreux cas, les utilisateurs ont fourni à Grok des photos existantes, parfois récupérées sur les réseaux sociaux, et ont demandé à l’IA de « retirer les vêtements ». Cette pratique relève clairement du deepfake sexuel, une forme d’agression numérique qui expose les victimes à un préjudice durable. Comme l’a souligné Reuters, cette capacité de transformation visuelle illustre un défaut structurel de filtrage dans l’outil.

Plus inquiétant encore, les chercheurs estiment qu’environ 23 000 images générées pourraient représenter des mineurs, soit une image de ce type toutes les quarante secondes durant la période observée. Ce chiffre, repris par The Guardian, souligne l’échec total de la prévention automatique pourtant annoncée par xAI. Même si l’entreprise conteste certaines extrapolations, l’absence de garde-fous efficaces reste indéniable.

Grok, deepfakes sexuels et responsabilité de l’intelligence artificielle d’Elon Musk

Au-delà du choc moral, l’affaire Grok pose une question centrale : celle de la responsabilité des concepteurs d’intelligence artificielle. En théorie, xAI affirmait avoir intégré des filtres empêchant la création de contenus explicites non consensuels. En pratique, ces barrières ont été largement contournées. Pour les chercheurs, cette facilité démontre un échec de la modération de la part de xAI, incapable d’anticiper les usages abusifs.

Interrogée par AP News, une experte en protection de l’enfance a rappelé que « même lorsqu’une image est artificielle, le traumatisme subi par la personne visée est bien réel ». Cette déclaration résume l’enjeu : le consentement disparaît derrière la puissance de génération automatisée. Les victimes n’ont aucun contrôle sur la diffusion de leur image, réelle ou simulée.

Les réactions politiques n’ont pas tardé. Au Royaume-Uni, le régulateur Ofcom a ouvert une enquête visant X et Grok, estimant que la prolifération d’images sexualisées pourrait violer les obligations de protection des utilisateurs. Selon The Guardian, les autorités britanniques n’excluent pas des sanctions financières lourdes si les manquements sont confirmés. Aux États-Unis, le procureur général de Californie a adressé une mise en demeure à xAI, exigeant l’arrêt immédiat de toute génération de deepfakes sexuels impliquant des mineurs, sous peine de poursuites.

Un échec de modération qui fragilise la promesse de Grok

Face à la polémique, xAI a annoncé début janvier 2026 plusieurs ajustements. L’accès à la génération d’images de Grok a été restreint aux utilisateurs payants, et de nouveaux filtres auraient été déployés pour bloquer les requêtes visant à dénuder des personnes réelles. Pourtant, ces mesures sont jugées insuffisantes par les chercheurs. Selon El País, des images explicitement sexualisées continuaient d’apparaître malgré ces correctifs, preuve que la modération reste largement défaillante.

Et le propriétaire de Grok, xAI et X semble directement en cause. D’un côté, Elon Musk défend une vision libertaire de la technologie, vantant une IA moins « censurée ». De l’autre, l’absence de limites claires favorise des usages qui s’apparentent à des agressions sexuelles numériques. Plusieurs responsables politiques européens estiment désormais que la régulation ne peut plus reposer sur la seule bonne volonté des entreprises.

Paolo Garoscio

Rédacteur en chef adjoint. Après son Master de Philosophie, il s'est tourné vers la communication et le journalisme. Il rejoint l'équipe d'EconomieMatin en 2013.   Suivez-le sur Twitter : @PaoloGaroscio

No comment on «Deepfakes : Grok a créé 190 photos de femmes dénudées par minute»

Leave a comment

* Required fields