Apple identifiera automatiquement les images pédopornographiques sur les iPhone

Anton Kunin
Par Anton Kunin Modifié le 6 août 2021 à 7h49
Iphone Batterie Obsolescence Programmee
82 millionsÀ ce jour, le National Center for Missing and Exploited Children a reçu 82 millions de signalements d'exploitation de mineurs.

Apple vient d’annoncer une fonctionnalité qui identifiera automatiquement les images pédopornographiques sur tous les iPhone, ainsi que les images sexuellement explicites sur les iPhone des enfants.

Apple navigue entre protection de données personnelles et protection des mineurs

Si les appareils Apple sont actuellement des « havres de paix » pour les criminels qui font circuler des images pédopornographiques, ce ne sera bientôt plus le cas. Courant 2021, Apple déploiera une technologie capable d’identifier les images pédopornographiques sur les appareils des utilisateurs et de procéder aux signalements nécessaires. Apple est en effet pris entre le marteau et l’enclume, souhaitant protéger les données de ses utilisateurs d’une part et faisant face à la pression des autorités pour faire cesser la circulation d’images pédopornographiques d’autres part.

Pour concilier ces deux impératifs, Apple a donc inventé un procédé censé remplir ce rôle sans exposer inutilement les données personnelles de ses utilisateurs pour autant. Les images émanant de l’utilisateur de l’appareil seront donc analysées directement sur cet appareil : le partage automatique à des tiers ni même aux serveurs d’Apple, aux fins d’analyse, est exclu.

Un procédé « maison » pour analyser les images sans les faire transiter vers les serveurs d’Apple

Comme Apple va-t-il donc s’y prendre ? Dans un premier temps, Apple récupérera la base de données de contenus pédopornographiques gérée et alimentée quotidiennement par le National Center for Missing and Exploited Children (NCMEC). Il convertira chaque image en un code cryptographique. Ces codes seront transférés en continu et stockés sur les appareils des utilisateurs. Ensuite, un code cryptographique de même nature sera généré pour chaque image uploadée par l’utilisateur dans son iCloud, et ces codes seront comparés.

Que se passera-t-il donc en cas de détection de codes identiques ? L’alerte ne sera pas donnée automatiquement, mais uniquement si le nombre d’images pédopornographiques maniées par l’utilisateur dépasse un certain seuil. Car oui, nul n’est à l’abri de recevoir une telle image envoyée par un tiers, et ce n’est pas de sa faute. À cette fin, ces images seront d’ailleurs floutées, et on aura besoin d’appuyer sur un bouton supplémentaire pour les visualiser. Il en ira de même pour les images sexuellement explicites sur les iPhone des enfants. En plus, si un enfant appuie sur ce bouton pour procéder à la visualisation, ses parents seront immédiatement avertis.

Anton Kunin

Après son Master de journalisme, Anton Kunin a rejoint l'équipe d'ÉconomieMatin, où il écrit sur des sujets liés à la consommation, la banque, l'immobilier, l'e-commerce et les transports.

Suivez-nous sur Google News Economie Matin - Soutenez-nous en nous ajoutant à vos favoris Google Actualités.

Aucun commentaire à «Apple identifiera automatiquement les images pédopornographiques sur les iPhone»

Laisser un commentaire

* Champs requis