Les images d’abus d’enfants est un vrai fléau même pour les entreprises technologiques comme Apple qui s’y attaque de front. Un mandat de perquisition émis au nom de Homeland Security Investigations donne un aperçu sur la manière qu’utilise Apple pour détecter et signaler ce genre d’images téléchargées sur iCloud ou envoyées via ses serveurs de messagerie, « tout en protégeant la confidentialité des clients innocents ».

iCloud - abus enfants

La première étape de détection est automatisée, grâce à un système utilisé en commun par la plupart des entreprises technologiques.

Pour chaque image d’abus d’enfant déjà détectée par les autorités, un « hachage » est créé. Il s’agit en fait d’une signature numérique pour cette image. Grâce à ce hachage, les entreprises technologiques peuvent demander à leurs systèmes de rechercher automatiquement des images correspondantes.

Forbes explique ce qui se passe généralement lorsqu’une correspondance est détectée.

« Une fois le seuil atteint, cela suffit pour qu’une entreprise de technologie contacte l’autorité compétente, généralement le National Center for Missing and Exploited Children (NCMEC). Le NCMEC est un organisme à but non lucratif qui agit en tant que « centre d’échange » d’application de la loi du pays pour les informations concernant l’exploitation sexuelle des enfants en ligne. Il appelle généralement les forces de l’ordre après avoir été informé de contenu illégal, ce qui [provoque] souvent des enquêtes criminelles. »

De son côté, Apple pousse ses investigations plus loin avec une vérification manuelle de chaque image. Grâce à cette méthode, elle peut confirmer ou non que les images sont bien suspectes. Ensuite, la firme californienne fournit aux organismes d’application de la loi le nom, l’adresse et le numéro de téléphone mobile associés à l’identifiant Apple correspondant.

Le processus a été révélé par le mandat de perquisition, y compris par les commentaires d’un employé d’Apple.

« L’enquêteur a publié les commentaires d’un employé d’Apple sur la manière dont il avait détecté pour la première fois « plusieurs images de pornographie juvénile présumée » téléchargées par un utilisateur iCloud, puis regardé ses e-mails.

« Lorsque nous interceptons l’e-mail avec des images suspectes, elles ne sont pas transmises au destinataire prévu. Cette personne… a envoyé 8 courriels que nous avons interceptés. [Sept] de ces e-mails contenaient 12 images. Les 7 e-mails et images étaient les mêmes, tout comme l’adresse e-mail du destinataire. L’autre e-mail contenait 4 images différentes des 12 précédemment mentionnées. Le destinataire était le même ».

« Je soupçonne que ce qui s’est passé, c’est qu’il s’envoyait ces images et quand elles ne sont pas arrivées, il les a envoyées à plusieurs reprises. Soit cela, soit il a appris du destinataire qu’elle n’avait pas été réceptionnées. »

L’employé d’Apple a ensuite examiné chacune de ces images de suspects de pornographie juvénile, selon l’agent spécial de l’unité Homeland Security Investigations. »

En clair, Apple n’examine que les images qui ont eu une correspondance avec le hachage d’une image connue d’abus d’enfants. De fait, l’interception d’images « innocentes » est très faible. Apple fait la différence en alliant le hachage et une vérification manuelle, afin que rien ne lui échappe, ou le moins possible.

Partager un commentaire