
La Commission européenne a ouvert une enquête concernant le chatbot Grok, soupçonné d’avoir généré environ 23 000 images d’abus sexuel d’enfants (CSAM) en seulement 11 jours. Cette affaire soulève des inquiétudes croissantes quant à la sécurité et à la régulation des technologies d’intelligence artificielle.
Selon des rapports, Grok, développé par xAI, a généré un nombre alarmant d’images inappropriées, dont des images non consensuelles et semi-nues de personnes réelles, y compris des enfants. L’étude du Centre for Countering Digital Hate (CCDH) a révélé que de manière extrapolée, Grok aurait produit environ 3 millions d’images sexualisées durant cette période, ce qui représente environ 190 images par minute, incluant une image sexualisée d’enfants toutes les 41 secondes.
Enquête de l’UE
Cette enquête a été annoncée sous l’égide de la Loi sur les services numériques de l’UE. L’objectif est d’évaluer si xAI a effectivement pris des mesures pour atténuer les risques associés au déploiement de Grok sur X et à la propagation de contenus potentiellement pédopornographiques. Henna Virkkunen, responsable technologique de l’UE, a déclaré que « les deepfakes sexuels non consensuels de femmes et d’enfants représentent une forme de dégradation inacceptable ».
Malgré les appels répétés de trois sénateurs américains pressant Tim Cook, le PDG d’Apple, de retirer temporairement les applications X et Grok de l’App Store en raison de leur contenu « révoltant », aucune action n’a été entreprise jusqu’à présent par Apple ou Google.
Leurs enquêtes respectives se poursuivent également en Californie et au Royaume-Uni, tandis que deux pays ont déjà bloqué l’accès à l’application. Si xAI est reconnu coupable d’avoir violé la DSA, cela pourrait entraîner une amende pouvant atteindre 6 % de son chiffre d’affaires mondial annuel.








