Une coalition internationale de plus de 90 groupes de défense des droits civils et politiques a publié une lettre ouverte exhortant Apple à abandonner ses projets de système de détection CSAM

CSAM Apple, droits civiques

Le groupe précise que les finalités de ce système ne justifient pas une si grande ingérence dans la vie privée des utilisateurs :

« Bien que le système de détection CSAM soit destiné à protéger les enfants et à réduire la propagation de la pédopornographie, nous craignons que ces technologies ne soient utilisées pour censurer les communications, menacent la vie privée et la sécurité des personnes dans le monde et aient des conséquences désastreuses pour de nombreux enfants. »

Les signataires de la lettre envoyée à Apple craignent que le système de numérisation CSAM sur les appareils Apple ne soit exploité par certains pays dotés de systèmes juridiques différents pour rechercher des contenus politiques ou d’autres contenus sensibles appartenant à des opposants.

« Une fois cette fonctionnalité de porte dérobée intégrée, les gouvernements pourraient obliger Apple à étendre la notification à d’autres comptes et à détecter des images douteuses pour des raisons autres que sexuellement explicites. »

De plus, la lettre exhorte Apple à abandonner les modifications prévues sur iMessage dans les comptes familiaux, qui identifieront et masqueront la nudité dans les messages des enfants, leur permettant de voir les photos uniquement si les parents en sont informés. Les signataires affirment que non seulement ce blocage pourrait mettre en danger les enfants maltraités ou ceux qui recherchent du matériel éducatif, mais il pourrait également briser le cryptage de bout en bout d’iMessage.

Apple a expliqué à plusieurs reprises que le scan CSAM n’analyserait pas les photos de toutes les personnes sur leurs iPhone, mais uniquement celles dont les hachages correspondent aux images pédopornographiques dans la base de données CSAM. De plus, la société a annoncé la semaine dernière que le système peut également être vérifié par des tiers. Apple a également confirmé que la détection CSAM ne s’applique qu’aux photos stockées dans iCloud Photos, et non aux vidéos.

Partager un commentaire