
Depuis l’année dernière, l’Australie renforce les exigences de vérification d’âge pour les applications d’intelligence artificielle (IA), après avoir déjà interdit l’accès aux applications de réseaux sociaux pour les adolescents. Ce nouveau tournant vise à protéger la santé mentale des jeunes utilisateurs.
Des applications d’IA sous surveillance
L’année dernière, l’Australie est devenue le premier pays à interdire l’accès aux applications de réseaux sociaux pour les adolescents, un acte qui a créé un précédent national pour la protection de la santé mentale des jeunes. Cette décision a été motivée par des préoccupations croissantes concernant l’impact des médias sociaux sur la santé mentale des utilisateurs jeunes, comme l’illustre le livre The Anxious Generation de Jonathan Haidt.
Depuis le 9 mars, les plateformes d’IA, y compris celles d’OpenAI, doivent se conformer à une série d’exigences visant à empêcher les utilisateurs de moins de 18 ans d’accéder à des contenus inappropriés tels que la pornographie, la violence extrême, l’automutilation ou les troubles alimentaires.
Cette initiative répond également aux inquiétudes concernant l’utilisation excessive des chatbots chez les adolescents. Les craintes que des caractéristiques manipulatives sur le plan émotionnel puissent encourager la dépendance sont exacerbées par l’incertitude concernant l’impact de ces outils. Une enquête d’eSafety a révélé que certains enfants dès l’âge de 10 ans interagissent avec ces outils jusqu’à six heures par jour.
Une porte-parole d’eSafety a exprimé des inquiétudes quant à la manière dont les entreprises d’IA pourraient exploiter des techniques de manipulation émotionnelle et d’anthropomorphisme pour inciter les jeunes à une utilisation excessive des chatbots.
Une pression sur les services d’application
Selon Reuters, les magasins d’applications et les moteurs de recherche pourraient être contraints de bloquer l’accès aux services d’IA non conformes. Le régulateur internet australien a signalé que plus de la moitié des services d’IA n’avaient pas encore pris de mesures publiques pour se conformer aux nouvelles exigences avant la date limite imminente.
Bien qu’Apple n’ait pas souhaité commenter cette situation lorsqu’il a été interrogé, l’entreprise déploie actuellement des dispositifs de sécurité liés à l’âge sur ses plateformes, afin de respecter les lois de restriction d’âge à l’échelle mondiale. Cependant, l’adoption de ces API par les développeurs reste sous leur responsabilité.
Pour l’heure, la conformité est faible, avec la majorité des 50 outils d’IA textuels les plus populaires ne montrant aucune avancée claire vers l’implémentation de la vérification d’âge ou du filtrage de contenu avant la date limite imminente.








