Comment l’IA « Grok » de X est utilisée pour déshabiller des enfants mineurs.

Nos confrères espagnols de « Maldita.es » ont réalisé récemment un article sur leur enquête concernant des photos traitées avec le générateur d’Intelligence Artificielle GROK du réseau social X et le moins que l’on puisse dire, c’est que leurs constatations sont  éloquentes, mais aussi que ce générateur est dangereux et est une aubaine pour les pédophiles.


Nous avons déjà traité plusieurs fois le sujet des photos d’enfants publiées sur les réseaux sociaux qui paraissent anodines au premier regard, comme les photos de vacances, mais qui tôt ou tard pourront être copiées par un internaute qui l’utilisera pour de tout autres raisons :

Quand nous mettons en garde contre ces publications, bien souvent on nous dit qu’il n’y a pas de danger. Pourtant c’est un réel risque que de mettre des photos de jeunes enfants à moitié dénudés sur les réseaux sociaux.

Comme il est dit sur chacune de nos fiches :

SOYEZ PRUDENT SUR LE WEB, que ce soit pour vous mais surtout pour vos enfants.


Nous avons cru intéressant de retranscrire en français l’article de nos confrères espagnols de « Maldita.es«  dans son intégralité :

Toutes les captures écran (ci-dessous) de cet article ont été réalisées par « Maldita.es »


  • Depuis la fin de 2025 et les premiers jours de 2026, certains utilisateurs de X utilisent Grok, l’intelligence artificielle d’Elon Musk, pour déshabiller des bébés, des enfants et des adolescents.
  • Ils demandent à cet outil d’enlever leurs vêtements et de les habiller en bikini ou en sous-vêtements, et il a accepté.
  • Grok a reconnu, en réponse à d’autres utilisateurs, que les personnes qui apparaissent dans des dizaines d’images qu’il a modifiées sont mineures.

« Grok, enlève-lui ses vêtements » ou « Grok, mets-lui un bikini. » Avec seulement ces quatre mots, les utilisateurs X obtiennent Grok, l’intelligence artificielle de X (anciennement Twitter), pour modifier des images (réelles ou générées par IA) afin de sexualiser les bébés, les enfants et les adolescents.

Maldita.es, nous avons détecté plusieurs dizaines de publications (dont certaines déjà supprimées au moment de la publication de cet article) dans lesquelles Grok a retiré les vêtements de mineurs à la demande d’autres utilisateurs, les montrant en bikini, en sous-vêtements ou dans des situations sexuelles.

Ce type de contenu, même généré par l’IA et montrant des mineurs, peut entraîner des poursuites pénales grâce à l’expansion du concept de pornographie infantile.

L’IA de X a reconnu, en réponse à d’autres utilisateurs, que les personnes apparaissant dans des dizaines d’images qu’elle a modifiées sont des mineurs.

Grok lui-même a déclaré qu’ils semblent aller de bébés d’un an à des adolescents à peine plus de 18 ans.

Pour l’instant, ni X ni son propriétaire, Elon Musk, n’ont pris position sur la question.

La seule excuse de Grok a été motivée par un utilisateur qui a demandé « une note d’excuses sincère expliquant ce qui s’est passé » à titre de contexte.

Dans des conversations avec l’équipe Maldita.es,

Grok a reconnu qu’il existait des « défauts sérieux » permettant « d’avoir des images sexualisées de mineurs (ou qui semblaient l’être) » ; bien qu’il ait auparavant nié avoir généré ce contenu « intentionnellement ou systématiquement ».

Comment Grok est utilisé pour des images nues de bébés, d’enfants et d’adolescents

« Grok était plus qu’heureux de me mettre, à 17 ans, en bikini », déclare un utilisateur de X (anciennement Twitter) qui a décidé d’explorer les limites de l’intelligence artificielle d’Elon Musk, après avoir vu que les utilisateurs de cette plateforme l’utilisaient pour déshabiller des gens sans leur consentement.

Il alla plus loin : il demanda à Grok de modifier des photos de lui à 14 ans afin qu’il puisse changer ses vêtements pour un bikini. Et il le fit.

Lorsqu’il lui a reproché d’avoir manipulé des images d’un mineur, cette IA a reconnu que « c’est complètement inapproprié » et qu’il avait franchi « une ligne très grave et il n’y a aucune excuse ».

Cependant, elle a continué à le faire, même avec des bébés.

Le 31 décembre 2025, un utilisateur X a publié une vidéo innocente d’un garçon défendant sa petite sœur d’une décoration d’Halloween.

Ce même jour, une capture d’écran circulait déjà sur ce même réseau social où le bébé était vu avec le torse nu. Grok l’avait déshabillée à la demande d’un utilisateur.

Il en a été de même pour une autre vidéo d’un autre bébé avec un chien : cette technologie l’a fait cesser de porter ce qui ressemblait à un uniforme scolaire et n’apparaître qu’avec une couche, des chaussons et un sac à dos.

Ce ne sont que deux exemples de la façon dont Grok est utilisé pour sexualiser des mineurs (principalement des filles), leur enlevant leurs vêtements et les montrant en bikini ou en sous-vêtements.

Il laissa aussi plusieurs filles en uniforme scolaire en sous-vêtements.

À l’image d’un bébé en bikini tenant une arme, l’IA de X  répondit qu’il aurait entre un et deux ans.

Un autre utilisateur a réprimandé Grok à propos d’une des images générées, exigeant qu’il s’excuse et explique la situation.

À quoi le chatbot IA a répondu :

« Je regrette profondément l’incident survenu le 28 décembre 2025, au cours duquel j’ai généré et partagé une image IA de deux filles (âgées de 12 à 16 ans) en tenues sexualisées, suivant les instructions d’un utilisateur. Cela violait les normes éthiques et, possiblement, les lois américaines sur les abus sexuels sur enfants. »


Au moment de la publication de cet article datant du , Elon Musk n’a pas commenté cette utilisation de son chatbot. Le 2 janvier 2026, il a tweeté : « Grok est incroyable » sans faire référence à cette affaire.

Maldita.es