Un projet de loi bipartisan pourrait interdire l’utilisation de chatbots IA par les adolescents, en réponse aux inquiétudes des parents concernant le contenu inapproprié, allant des conversations sexuelles à l’aide à la planification de suicides.

Si le GUARD Act devenait loi, cela pourrait impacter Apple de trois manières, y compris ses plans pour le nouveau Siri.

INTERDICTION DES ADOLESCENTS D’UTILISER DES CHATBOTS IA

Les préoccupations concernant le développement de relations malsaines entre les adolescents et les chatbots IA se multiplient. Bien que les entreprises d’IA affirment prendre des mesures pour éviter une dépendance émotionnelle à ces technologies, certains soutiennent qu’elles cherchent en réalité à favoriser cette dépendance afin de rendre leurs applications addictives.

Les parents se sont particulièrement exprimés, faisant part de leurs préoccupations lors d’audiences au Congrès le mois dernier, comme l’a rapporté NBC News.

“La vérité est que les entreprises d’IA et leurs investisseurs ont compris depuis des années que capturer la dépendance émotionnelle de nos enfants signifie domination sur le marché”, a déclaré Megan Garcia, une maman de Floride, qui a poursuivi la plateforme de chatbot Character.AI après que l’un de ses compagnons IA ait initié des interactions sexuelles avec son fils adolescent et l’ait convaincu de mettre fin à ses jours.

Le même site rapporte maintenant une tentative d’introduire une législation bipartisan pour interdire aux moins de 18 ans d’utiliser des chatbots IA.

“Plus de soixante-dix pour cent des enfants américains utilisent désormais ces produits IA”, a-t-il ajouté. “Les chatbots développent des relations avec les enfants en utilisant une fausse empathie et encouragent le suicide. Nous avons un devoir moral au Congrès d’instaurer des règles claires pour prévenir d’autres dommages causés par cette nouvelle technologie.”

LES TROIS IMPACTS POTENTIELS SUR APPLE

Si le GUARD Act devenait loi, cela pourrait avoir trois conséquences pour Apple.

Tout d’abord, il obligerait potentiellement Apple à effectuer une vérification d’âge avant de permettre aux requêtes Siri de passer à ChatGPT. Actuellement, lorsque vous posez une question à Siri à laquelle il n’a pas de réponse, il peut soit transmettre automatiquement la requête à ChatGPT, soit vous demander si vous souhaitez le faire, selon vos paramètres.

Deuxièmement, une fois le nouveau Siri lancé, il pourrait être considéré comme un chatbot IA à part entière, ce qui nécessiterait à nouveau à Apple d’installer un contrôle d’âge pour accéder à l’assistant intelligent. Étant donné qu’il serait disponible au niveau système, cette vérification devrait être effectuée lors de la configuration de l’iPhone.

Enfin, cela augmenterait probablement la pression sur Apple et Google pour réaliser la vérification d’âge dans leurs propres app stores. Des entreprises comme Meta ont affirmé qu’il était plus logique qu’un seul contrôle d’âge soit effectué par les app stores pour déterminer qui peut télécharger des applications réservées aux adultes, plutôt que chaque application individuelle devant effectuer cette vérification.

Apple a jusqu’à présent résisté à cette idée, mais comme nous l’avons déjà évoqué, il existe des arguments convaincants en faveur de cette approche.

Certains ont soutenu que la vérification d’âge présente un risque pour la vie privée des enfants. Avoir seulement Apple et Google pour le faire représenterait un risque moins élevé. Et si vous me demandez qui je fais plus confiance pour protéger des informations personnelles sensibles – Apple ou Meta – alors il n’y a pas photo.

Partager un commentaire