Il y a quelques jours, Apple a annoncé l’arrivée de la fonctionnalité de détection de pornographie enfantine (CSAM) dans iCloud Photos aux États-Unis. Apple a maintenant confirmé que toute expansion vers d’autres pays se fera sous réserve des lois et réglementations locales.

détection CSAM

La nouvelle fonctionnalité permettra à Apple de détecter les images CSAM lorsqu’elles sont stockées dans iCloud Photos. La fonctionnalité, cependant, n’a pas été bien prise par tous les utilisateurs, car beaucoup l’ont considérée comme une grave violation de la vie privée. Néanmoins, Apple promet que tout cela est nécessaire pour protéger les enfants, et en même temps, que la vie privée de l’utilisateur ne sera pas violée.

Apple a confirmé que toute extension de ce système de détection CSAM en dehors des États-Unis se fera pays par pays, conformément aux lois et réglementations locales. Traditionnellement, Apple lance toujours les nouvelles fonctionnalités en premier aux États-Unis, car il s’agit du plus grand marché de l’entreprise et de celui où elle connaît le mieux les lois et réglementations locales. La société n’a pas fourni de calendrier précis sur quand ou si elle étendra cette fonction à d’autres pays. Pour le moment, il n’est donc pas clair si cette fonctionnalité arrivera également en France.

Que pensez-vous de cette nouvelle fonctionnalité ? Êtes-vous pour ou contre ? Faites-nous part de votre opinion avec un commentaire.

Partager un commentaire