La fonction de suivi CSAM d’Apple est le sujet du dernier éditorial d’Edward Snowden sur Substack, l’ancien consultant américain en renseignement qualifiant la stratégie de l’entreprise de « tragédie ».

Edward Snowden, détection CSAM Apple

Edward Snowden renonce aux réfutations techniques du système CSAM d’Apple et va droit au but, affirmant que la solution « redéfinira en permanence ce qui vous appartient et ce qui leur appartient ».

La fonctionnalité, qui devrait être déployée avec iOS 15 cet automne, hachera et fera correspondre les photos des utilisateurs téléchargées sur iCloud avec une base de données CSAM d’images pédopornographiques extraites d’au moins deux entités différentes. Surtout, contrairement aux systèmes existants, la technologie d’Apple effectue tout le traitement sur l’appareil. Cela, selon Snowden, « effacera la ligne qui sépare quels appareils fonctionnent pour vous et quels appareils fonctionnent pour eux ».

« Une fois que le précédent a été établi qu’il est approprié même pour une entreprise « pro-vie privée » comme Apple de fabriquer des produits qui trahissent ses utilisateurs, Apple elle-même perdra tout contrôle sur la façon dont ce précédent est appliqué.

La mise en œuvre par Apple des fonctionnalités de détection CSAM a plus à voir avec la marque que la protection de l’enfance ou la conformité réglementaire, car la fonctionnalité peut être contournée simplement en désactivant les téléchargements de photos iCloud. L’idée qu’Apple introduira la mesure en vue du cryptage de bout en bout sur iCloud est également ridicule. La mise en œuvre d’un tel système n’aurait pas d’importance, car l’iPhone aura déjà une capacité de surveillance intégrée. »

Comme d’autres critiques, Snowden craint que les gouvernements n’abusent du système en forçant Apple à étendre la fonctionnalité CSAM sur l’appareil ou en exigeant qu’il soit toujours actif sur tous les utilisateurs : « Il n’y a pas de limite technologique fondamentale à la mesure dans laquelle le précédent établi par Apple peut être poussé, ce qui signifie que le seul frein est la politique d’entreprise trop flexible d’Apple, ce que les gouvernements ne comprennent que trop bien. »

Apple pour sa part a déclaré qu’elle ne se plierait pas aux demandes du gouvernement d’étendre le système au-delà de sa directive d’origine liée uniquement aux images pédopornographiques.

Partager un commentaire