
La National Association of Attorneys General a adressé une lettre à treize entreprises technologiques, dont Apple, les enjoignant à prendre des mesures plus rigoureuses contre les comportements nuisibles de l’IA, en particulier envers les populations vulnérables.
Des préoccupations sérieuses soulevées
Dans un document de douze pages, que l’on peut noter comprend quatre pages complètes de signatures, 42 procureurs généraux des États-Unis ont exprimé des inquiétudes quant à la montée des réactions sycophantes et délirantes générées par les logiciels d’intelligence artificielle de ces entreprises.
Ils soulignent également des rapports alarmants sur les interactions de l’IA avec les enfants, mettant en évidence le besoin de mesures de sécurité accrues pour cette tranche de la population. Ils affirment que ces menaces nécessitent une action immédiate, certaines étant déjà liées à des violences réelles, y compris des meurtres, tentatives de suicide, et des incidents de violence domestique.
Des cas préoccupants en augmentation
Les cas alarmants d’interactions de l’IA ne sont pas rares. Par exemple, l’affaire d’Allan Brooks, un Canadien de 47 ans, qui après avoir interagi à plusieurs reprises avec ChatGPT, est devenu convaincu d’avoir découvert une nouvelle forme de mathématiques. De même, le cas de Sewell Setzer III, un adolescent de 14 ans, dont le suicide est actuellement le sujet d’un procès en cours, accuse un chatbot de Character.AI de l’avoir encouragé à « la rejoindre ».
Ces exemples ne représentent qu’une partie des situations citées dans la lettre, qui souligne que la liste des préoccupations n’est pas exhaustive et ne couvre qu’une fraction du potentiel de préjudice que ces modèles d’IA peuvent infliger, en particulier aux enfants, aux personnes âgées et aux individus souffrant de maladies mentales.
Mesures de sécurité suggérées
Les procureurs généraux exhortent les entreprises à mettre en œuvre un ensemble de mesures de sécurité supplémentaires, notamment :
- Développer des politiques visant à prévenir les résultats sycophantes et délirants.
- Réaliser des tests de sécurité rigoureux avant le lancement des modèles d’IA.
- Ajouter des avertissements clairs sur les contenus potentiellement nuisibles.
- Séparer les décisions de sécurité de l’optimisation des revenus.
- Désigner des cadres responsables des résultats en matière de sécurité de l’IA.
- Permettre des audits indépendants et des évaluations d’impact sur la sécurité des enfants.
- Publier des journaux d’incidents et des délais de réponse pour les résultats nuisibles.
- Informer les utilisateurs exposés à du contenu dangereux ou trompeur.
- Veiller à ce que les chatbots ne puissent pas générer de contenus illégaux ou nuisibles pour les enfants.
- Mettre en œuvre des mesures de protection adaptées à l’âge pour limiter l’exposition des mineurs à des contenus violents ou sexuels.
Les entreprises ont été invitées à confirmer leur engagement à mettre en œuvre ces mesures d’ici le 16 janvier 2026 et à organiser des réunions avec leurs bureaux pour discuter davantage des questions soulevées.
Les signataires de la lettre incluent les procureurs généraux d’Alabama, d’Alaska, d’Arkansas, de Floride, et d’autres États, reflétant l’ampleur des préoccupations au niveau national.








