La marque Apple a déployé un nouvel outil destiné à améliorer la lutte contre les contenus pédopornographiques. Désormais, Apple pourra automatiquement scanner tous les contenus à caractère sexuel impliquant des enfants sur ses iPhone, iPad, et serveur iCloud aux Etats Unis.La firme américaine va scanner les photos et les messages des utilisateurs à partir de ses fonctionnalités pour tenter de trouver des contenus avec l’abus sexuel sur les enfants. Apple signalera les personnes en question aux autorités.
En effet les photos stockées sur iCloud ou échangées par iMessage seront analysées par des algorithmes. Ces algorithmes vont comparer signature numérique unique à l’image avec les signatures numériques de photos pédophiles contenues une base de données. Pour alimenter son système, Apple s’appuiera sur les photos fournies par le Centre national des enfants disparus et exploités (NCMEC).
Si la signature correspond, la photo sera marquée. Une fois qu’un compte dépasse un certain seuil de clichés marqués, un algorithme accèdera à la photographie afin de vérifier la présence de contenus répréhensibles. Un employé pourra alors un œil à l’image. En cas de contenu illégal, le compte sera rapporté aux autorités.
Dans la même optique, Apple va garder un œil sur les images échangées par des comptes d’enfants liés à un abonnement familial. Si l’enfant envoie une image à caractère sexuel, il recevra un avertissement de la part d’iOS. Apple se réserve aussi le droit de prévenir les parents. Cette fonction sera disponible dans iOS 15, iPadOS 15 et macOS Monterey, pour les comptes Apple configurés en partage familial.
Notons que cette nouvelle fonctionnalité de Apple n’est pas la bienvenue pour de nombreux défenseurs de la vie privée qui craignent que celle-ci ne se détourne de son objectif initial.
Source : Linfodrome.com