Pas plus tard qu’hier, nous avons signalé qu’Apple travaillait à la mise en œuvre d’un système capable de détecter la pédopornographie à l’intérieur des appareils. Au cours des dernières heures, Apple a annoncé un nouveau système de sécurité pour enfants sur iPhone, iPad et Mac.

système de sécurité, pédopornographie, iCloud Photos

Ce système comprend de nouvelles fonctionnalités de sécurité des communications dans Messages, une détection avancée de la pédopornographie (CSAM) dans iCloud et des informations mises à jour pour Siri et Search. Apple souligne que ce système de sécurité a été construit parce que « protéger les enfants est une responsabilité importante« .

MISE À JOUR 9 août 2021 : Apple, en réponse aux diverses critiques et commentaires reçus d’utilisateurs et d’experts du monde entier, a créé une série de pages FAQ pour fournir plus de détails à ce sujet. Sur ces pages, vous pouvez voir plus de détails sur la gestion du système de reconnaissance d’images et sur la confidentialité de l’utilisateur ; aspect qu’Apple veut toujours protéger.

Nouveau système de sécurité pour les enfants dans l’application Messages

Commençons par la nouvelle fonctionnalité de sécurité de l’application Messages. Apple explique que lorsqu’un enfant de moins de 13 ans faisant partie d’une famille iCloud reçoit ou tente d’envoyer des photos sexuellement explicites, l’enfant verra l’image floue et l’application affichera un avertissement indiquant que l’image « peut être sensible ». Si l’enfant touche « Voir la photo », il verra un message contextuel l’informant pourquoi l’image est considérée comme sensible. La fenêtre contextuelle explique que si l’enfant décide de voir l’image, le parent de la famille iCloud recevra une notification « pour s’assurer que vous allez bien ». La fenêtre contextuelle comprendra également un lien rapide pour une assistance supplémentaire.

Apple explique également que l’application Messages utilisera l’apprentissage automatique sur l’appareil pour analyser les images jointes et déterminer si une photo est sexuellement explicite. L’application maintiendra le cryptage de bout en bout, de sorte qu’Apple n’aura jamais accès aux messages.

Cette fonctionnalité arrivera initialement aux États-Unis plus tard cette année avec iOS 15, iPadOS 15 et macOS Monterey.

Détection CSAM

système de sécurité, pédopornographie, iCloud Photos

La deuxième fonctionnalité annoncée par Apple a pour objectif clair de lutter contre la diffusion de la pédopornographie (CSAM). Apple explique qu’elle fait référence au contenu qui décrit des activités sexuellement explicites impliquant un enfant.

Cette fonctionnalité permettra à Apple de détecter les images connues contenant de la pédopornographie lorsqu’elles sont stockées dans iCloud Photos. Apple peut alors soumettre un rapport au National Center for Missing and Exploited Children. Il s’agit d’une entité qui agit en tant qu’agence de reporting à part entière pour CSAM et travaille en étroite collaboration avec les forces de l’ordre.

Apple souligne à plusieurs reprises que sa méthode de détection est conçue en tenant compte de la confidentialité des utilisateurs. En termes simples, Apple analysera les images sur votre appareil pour voir s’il existe des correspondances avec une base de données d’images CSAM connues fournies par le National Center for Missing and Exploited Children. Tout le processus se fait sur l’appareil, en fait Apple va transformer la base de données du National Center for Missing and Exploited Children en un « ensemble illisible de hachages stocké en toute sécurité sur les appareils des utilisateurs ».

Mais comment fonctionnera ce processus pour la sécurité des enfants ?

Apple explique qu’avant qu’une image ne soit stockée dans iCloud Photos, un processus de correspondance est effectué sur l’appareil pour cette image par rapport à l’ensemble illisible de hachages CSAM connus. Ce processus de correspondance est alimenté par une technologie cryptographique qui détermine si une correspondance existe sans révéler le résultat. S’il existe une correspondance, l’appareil crée alors un bon de sécurité cryptographique qui crypte le résultat de la correspondance. Le contenu des bons de sécurité ne peut être interprété par Apple que si le compte iCloud Photos dépasse un certain seuil de contenu CSAM connu, même si la limite de ce seuil n’est pas connue.

Une fois ce seuil atteint, Apple examinera manuellement le rapport pour confirmer la correspondance, puis désactivera le compte de l’utilisateur et soumettra un rapport au National Center for Missing and Exploited Children. Même si tout le processus sera effectué sur l’appareil, Apple n’analysera que les images stockées dans iCloud Photos. Les images stockées localement ne seront pas impliquées dans ce processus.

Siri et recherche

système de sécurité, pédopornographie, iCloud Photos

Enfin, Apple effectue des mises à jour pour Siri et Recherche, fournissant des ressources supplémentaires pour aider les enfants et les parents à rester en sécurité en ligne. Par exemple, les utilisateurs qui demandent à Siri comment ils peuvent signaler la CSAM ou l’exploitation d’enfants seront dirigés vers des ressources indiquant où et comment déposer un signalement.

Les mises à jour de Siri et de Recherche arriveront plus tard cette année avec iOS 15, iPadOS 15, watchOS 8 et macOS Monterey.

Que pensez-vous de ce nouveau système de sécurité dédié aux enfants d’Apple ?

Partager un commentaire