Bien que le lancement du système CSAM (Child Sexual Abuse Material) d’Apple soit retardé, les critiques continuent aux États-Unis contre ce qu’on appelle une technologie très dangereuse et controversée, malgré la bonne intention de détecter des images d’abus sexuels sur des enfants.

CSAM Apple

Certains experts en cybersécurité se sont opposés à la technologie CSAM d’Apple conçue pour limiter le partage d’images pédopornographiques sur iPhone et iPad. La critique vient d’une nouvelle étude de 46 pages qui a examiné les plans d’Apple et de l’Union européenne pour surveiller les téléphones des gens à la recherche de matériel illicite et a qualifié ces efforts de stratégies inefficaces et dangereuses qui pourraient encourager la surveillance du gouvernement.

Annoncées en août, les fonctionnalités prévues par Apple incluent l’analyse côté client (c’est-à-dire sur l’appareil) des photothèques iCloud des utilisateurs à la recherche d’images relatives à du matériel sexuel impliquant des enfants (CSAM), afin que les autorités compétentes puissent être informées à temps.

Selon les chercheurs, ce système risque de donner une fenêtre sur nos iPhone aux gouvernements du monde entier, qui pourraient commencer à espionner même les citoyens respectueux des lois. Apple a fermement rejeté cette possibilité, affirmant qu’elle rejetterait toute demande de ce type de la part des gouvernements. Mais pour les chercheurs ce n’est pas fondé.

Outre les problèmes de contrôle et de surveillance, l’étude montre également que la technologie n’est pas efficace pour identifier les images d’abus sexuels sur mineurs, puisque quelques modifications sur les photos suffisent à rendre ce contrôle inefficace.

« Le système CSAM permet de scanner un appareil privé personnel sans aucune raison liée à des actions illégitimes. C’est extraordinairement dangereux. C’est dangereux pour les entreprises, la sécurité nationale, la sécurité publique et la vie privée. »

Apple a répété à plusieurs reprises que son système respecte la confidentialité et effectue une vérification locale uniquement lorsque des images de ce type sont détectées.

Partager un commentaire