La Commission européenne est prête à présenter un projet de loi qui pourrait obliger les entreprises technologiques telles qu’Apple et Google à identifier, supprimer et signaler aux forces de l’ordre les images illégales d’abus d’enfants sur leurs plateformes.

UE, porte dérobée iOS

Comme l’a rapporté Politico, la Commission européenne estime que les mesures volontaires prises par certaines entreprises numériques se sont révélées insuffisantes jusqu’à présent pour faire face à l’utilisation croissante des services en ligne aux fins de partage de contenus liés à l’abus sexuel d’enfants. Pour cette raison, la commission souhaite rendre obligatoire la détection de ce matériel.

Après des mois de lobbying, des groupes représentant des entreprises technologiques et des organisations de défense des droits de l’enfant attendent de voir à quel point les règles pourraient être strictes et comment elles fonctionneront sans que les entreprises technologiques aient à scanner toutes les données des utilisateurs, une pratique jugée illégale par la Cour de justice du Union européenne en 2016.

Outre la façon dont l’identification du matériel illégal fonctionnerait dans le cadre de la loi, les groupes de protection de la vie privée et les entreprises technologiques craignent que l’exécutif européen ne conduise à la création de portes dérobées pour les services de messagerie cryptés de bout en bout, dont le contenu n’est pas accessible depuis la plate-forme d’hébergement. .

La commissaire aux affaires intérieures de la Commission européenne, Ylva Johansson, a déclaré qu’il existait des solutions techniques pour assurer la sécurité des conversations tout en parvenant à découvrir les contenus illégaux, mais les experts en cybersécurité ne sont pas d’accord. Pour beaucoup, la seule solution possible est la création d’une porte dérobée, qui poserait de nombreux problèmes de sécurité pour les utilisateurs des différents services de messagerie.

Le risque est que des millions de personnes dans l’UE se retrouvent avec leurs communications privées et intimes susceptibles d’être surveillées 24 heures sur 24. Cependant, tous les députés ne sont pas d’accord avec cette proposition et certains disent déjà que ces contrôles conduiraient à la mort de la vie privée dans la correspondance numérique.

Entre autres choses, Apple travaille déjà sur son système CSAM pour scanner les images d’abus d’enfants sur les iPhone et iPad, mais les critiques sur la vie privée ont incité l’entreprise à reporter son lancement. Entre autres choses, ce système avertit les enfants et leurs parents lorsqu’ils reçoivent ou envoient des images sexuellement explicites, le tout en scannant en toute sécurité la photothèque iCloud.

Partager un commentaire