
Aujourd’hui, le Tech Transparency Project a publié un rapport révélant que des applications de type « nudify » sont largement disponibles et facilement trouvables sur l’App Store d’Apple ainsi que sur le Play Store de Google.
Des applications de dénudement en publicité sur l’App Store
Alors que Grok a récemment attiré l’attention par ses images sexualisées générées par IA, le problème de ces contenus abusifs n’est pas nouveau. En effet, il existe depuis longtemps des outils de retouche photo qui permettent de créer ce type de contenu. Toutefois, l’échelle de ce phénomène et l’accessibilité à la création d’images en quelques secondes ont considérablement augmenté ces dernières années.
De nombreuses applications ont tenté de tirer parti de cette nouvelle capacité, certaines n’hésitant pas à faire de la publicité pour leurs fonctionnalités. Tout cela s’est produit pendant qu’Apple se battait contre Epic Games et d’autres développeurs d’applications dans des procès pour pratiques anticoncurrentielles, où Apple affirmait qu’une partie de la raison pour laquelle il prélève jusqu’à 30 % de commissions est de maintenir la sécurité de l’App Store grâce à des systèmes de révision d’applications automatisés et manuels.
Les applications en infraction avec les politiques de l’App Store
Bien qu’Apple investisse des efforts pour prévenir la fraude et les abus, certaines applications ou catégories d’applications échappent parfois à cette vigilance. Par exemple, l’année dernière, plusieurs applications prétendant être Sora 2 d’OpenAI ont été mises en lumière pour avoir des frais d’abonnement exorbitants.
Le rapport du Tech Transparency Project détaille comment il a pu facilement identifier des applications de dénudement dans l’App Store et sur Google Play, notant que ces applications ont collectivement été téléchargées plus de 705 millions de fois à l’échelle mondiale, générant 117 millions de dollars de revenus. Ces deux géants du numérique profitent ainsi directement de l’activité de ces applications, malgré leur violation apparente des politiques de l’App Store.
Des recherches simples suffisent
Des recherches simples pour des termes comme « nudify » ou « undress » sont suffisantes pour faire apparaître ces applications, dont certaines font explicitement de la publicité autour de ces mots-clés. Selon le rapport, les applications incluent des outils d’IA générant des vidéos ou des images basées sur des invites et des applications de « face swap » superposant le visage d’une personne sur le corps d’une autre.
Pour tester ces applications, le Tech Transparency Project a utilisé des images générées par IA de femmes fictives, se limitant aux fonctionnalités gratuites de chaque application. Ainsi, 55 applications Android et 47 applications iOS ont répondu aux demandes. Au moins l’une de ces applications était classée pour les âges de 9 ans et plus dans l’App Store.
Le rapport avance que bien que ces applications ne constituent qu’une fraction des contenus disponibles, elles suggèrent que les entreprises ne mènent pas efficacement leur propre régulation.








