Apple va comparer les images avant de les envoyer sur iCloud afin de détecter les photos pédopornographiques. © Jan Vasek, Pixabay
Tech

Chasse aux pédocriminels : Apple répond aux critiques

ActualitéClassé sous :Apple , Protection des enfants , réseau pédophile

Alors que des associations et des militants craignent que des États prennent le contrôle de l'outil de détection d'Apple, la firme se défend. Son « backdoor » qui surveille les images pédopornographiques sur iCloud est limité à un usage bien spécifique.

Cela vous intéressera aussi

[EN VIDÉO] Police scientifique : comment les empreintes digitales trahissent les criminels  Lors d’une enquête criminelle, il faut savoir tirer parti des informations laissées par le malfaiteur sur les lieux. Les traces digitales sont l'un des indices pouvant permettre de trouver un suspect. Nicolas Thiburce, chef du département Empreintes digitales de la Gendarmerie nationale, nous explique au cours de cette vidéo produite par la Cité des Sciences et de l’Industrie, comment prélever ces traces. 

À la suite de la décision d'Apple d'analyser les photos stockées sur iCloud pour y détecter les images pédopornographiques, de nombreuses voix se sont élevées et depuis ce week-end, une pétition circule pour que la firme abandonne son projet. Déjà signée par plusieurs milliers d'internautes, cette lettre ouverte signée de groupes et de militants de la protection de la vie privée numérique, comme Edward Snowden, juge que le « backdoor » mis en place par Apple pourrait être transformé en outils de surveillance par des gouvernements autoritaires.

Pressé de toutes parts, Apple a décidé de répondre via une Foire aux questions, et la firme rappelle que sa technologie « se limite à détecter le contenu lié à des abus sexuels sur des enfants, stocké dans iCloud » , et qu'en aucun cas, elle n'accèdera aux demandes des gouvernements pour en étendre le champ d'action.

L'outil ne recherche que des images interdites, déjà identifiées

Au passage, Apple révèle que des pays l'ont effectivement déjà contacté dans le passé. « Nous avons déjà été confrontés à des demandes de création et de déploiement de changements mandatés par des gouvernements qui détériorent la vie privée des utilisateurs et nous avons fermement refusé ces demandes. Nous continuerons à les refuser à l'avenir. »

À ceux qui craignent qu'Apple ne scanne tous types de photos, la société répond que sa technologie, basée sur une Intelligence artificielle, ne peut être utilisée pour détecter autre chose que des images d'abus sexuels. Apple indique d'ailleurs que sa liste d'images interdites est fournie par le Centre national pour les enfants disparus et exploités (NCMEC) et d'autres organisations de sécurité des enfants, et que le système ne fonctionne qu'avec ces images.

Pour en savoir plus

Comment Apple va analyser vos photos pour faire la chasse aux pédocriminels ?

Apple vient d'annoncer de nouvelles mesures pour protéger les enfants. Parmi celles-ci, un nouveau système qui permet à la firme de traquer les pédophiles en analysant les images transférées sur iCloud aux États-Unis et en signalant toutes celles répertoriées dans une base de données nationale d'images pédopornographiques.

Publié le 06/08/2021 par Edward Back

Apple vient d'annoncer la mise en place d'une nouvelle fonction sur iPhone et iPad visant à protéger les enfants. Les images envoyées vers son stockage en ligne iCloud seront analysées afin de détecter les images pédopornographiques. Déjà lancée en phase test, elle sera étendue à tous les utilisateurs aux États-Unis avec le lancement de la mise à jour iOS 15 cet automne.

Le traitement des photos se fera en local, directement sur l'appareil de l'utilisateur. Avant d'être transférées sur son espace iCloud, elles seront soumises à une fonction de hachage, qui calcule une empreinte cryptographique. C'est cette empreinte qui sera ensuite comparée à une base de données fournie par le National Center for Missing and Exploited Children (NCMEC). Cette base de données sera directement intégrée dans iOS 15 et contiendra les empreintes de toutes les images pédopornographiques déjà répertoriées.

Une alerte est lancée au-delà d’un certain seuil

Cette méthode permet d'assurer la confidentialité des données, puisque tout le traitement est fait en local, et seule l'empreinte cryptographique est comparée. Si le système détecte une correspondance avec la base de données, il envoie le résultat ainsi que des données supplémentaires, sous forme chiffrée, dans l'iCloud avec la photo. À partir d'un certain seuil, non précisé, un employé d'Apple pourra accéder à ces images afin de déterminer si elles correspondent effectivement à de la pédopornographie. Le cas échéant, Apple désactive le compte de l'utilisateur et contacte le NCMEC.

D'autres services de stockage en ligne ont déjà mis en place des systèmes similaires. Toutefois, celui d'Apple ne peut signaler que les images déjà identifiées par les autorités. Il n'y a aucune analyse du contenu des images, et donc le système ne risque pas de signaler des parents lorsqu'ils prennent en photo leurs enfants dans le bain, par exemple.

---

Découvrez TechPod, le résumé bimensuel de l'actualité de la tech et de la mobilité !

---

Abonnez-vous à la lettre d'information La quotidienne : nos dernières actualités du jour. Toutes nos lettres d’information

!

Merci pour votre inscription.
Heureux de vous compter parmi nos lecteurs !