Les problèmes de CSAM d'Apple pourraient être de retour, car l'UE prévoit une loi exigeant la détection

Par: Philippa Axinous | 11.05.2022, 14:16
Les problèmes de CSAM d'Apple pourraient être de retour, car l'UE prévoit une loi exigeant la détection

Les problèmes de CSAM d'Apple pourraient être de retour, après que la controverse sur la question de la numérisation des iPhones à la recherche de matériel d'abus sexuels sur des enfants a conduit l'entreprise à suspendre ses plans.

Un rapport indique aujourd'hui que l'Union européenne envisage une loi qui obligerait les géants de la technologie comme Apple à détecter, signaler et supprimer le CSAM, et que nous verrons un projet de la nouvelle loi dès cette semaine...

Les problèmes de CSAM d'Apple

La plupart des services cloud recherchent déjà des contenus pédopornographiques. Tout exemple détecté est signalé aux forces de l'ordre.

Apple voulait faire la même chose, mais en même temps voulait faire la numérisation d'une manière qui protège la vie privée des utilisateurs. Il a donc annoncé des plans d'analyse sur l'appareil de manière à ce que seules les correspondances confirmées soient vues par un modérateur humain.

  • Apple télécharge les hachages de la base de données CSAM sur votre iPhone
    (signatures numériques des images CSAM, pas des images réelles, évidemment).
  • Un processus sur l'appareil recherche des correspondances avec les hachages de vos photos.
  • Si moins de 30 sont trouvés, aucune action n'est entreprise.
  • Si plus de 30 correspondances sont trouvées, les basses résolutions de vos photos sont examinées manuellement par Apple.
  • Si les photos sont jugées innocentes, aucune autre mesure n'est prise.
  • Si l'examen manuel confirme qu'il s'agit de CSAM, les forces de l'ordre en sont informées.

Cependant, les experts et les militants ont immédiatement souligné les failles potentielles de l'approche, ce à quoi Apple aurait dû s'attendre, mais ne l'a apparemment pas fait.

Des inquiétudes ont été exprimées par des experts en cybersécurité, des organisations de défense des droits de l'homme, des gouvernements et les propres employés d'Apple. Quatre principales préoccupations ont été soulevées, expliquées ici :

  • Les faux positifs accidentels pourraient ruiner la réputation de quelqu'un.
    (Apple a résolu celui-ci en fixant un seuil de plus de 30 correspondances.)
  • Des faux positifs délibérés (c'est-à-dire des attaques par collision) pourraient être créés pour atteindre le même objectif.
  • Les gouvernements autoritaires pourraient ajouter des affiches politiques et similaires à la base de données.
  • Les mêmes recherches sur l'appareil basées sur le hachage pourraient être appliquées ultérieurement à iMessage.

L'entreprise a alors déclaré qu'il lui faudrait un certain temps pour repenser ses plans. C'était en septembre de l'année dernière, et huit mois se sont écoulés sans un seul mot sur le sujet d'Apple, ce qui a amené certains à soupçonner que l'entreprise avait simplement l'intention de prétendre que cela ne s'était jamais produit aussi longtemps qu'elle le pouvait. Mais cela ne sera peut-être plus possible avant longtemps…

Projet de loi européenne sur la détection des CSAM

politique rapporte que l'Union européenne prévoit d'annoncer une nouvelle loi obligeant les géants de la technologie à rechercher le CSAM. Cela obligerait Apple à trouver comment s'y conformer sans raviver la controverse.

La Commission devrait publier cette semaine un projet de loi qui pourrait obliger les entreprises numériques telles que Meta Platforms, Google et Apple à détecter, supprimer et signaler les images illégales d'abus aux forces de l'ordre sous peine d'amendes.

Selon une fuite de la proposition obtenue par POLITICO mardi, la Commission a déclaré que les mesures volontaires prises par certaines plateformes se sont jusqu'à présent « avérées insuffisantes » pour lutter contre l'utilisation abusive des services en ligne à des fins d'abus sexuels sur des enfants.

Le règlement intervient alors que les lignes directes de protection de l'enfance signalent une quantité record de contenus dérangeants circulant en ligne pendant la pandémie de coronavirus. L'Europe est un point chaud pour l'hébergement de tels contenus, avec 62 % des images illégales dans le monde situées sur des serveurs de données européens en 2021.

Il faudra attendre la publication du projet de loi pour voir exactement ce qu'il exige, mais d'une manière ou d'une autre, Apple devra résoudre le problème.

La situation risque de devenir compliquée, car l'un des principaux partisans de la nouvelle loi semble s'opposer au chiffrement de bout en bout. La commissaire aux affaires intérieures, Ylva Johansson, a déclaré :

Les abuseurs se cachent derrière le cryptage de bout en bout ; il est facile à utiliser mais presque impossible à déchiffrer, ce qui rend difficile pour les forces de l'ordre d'enquêter et de poursuivre les crimes.

Nous soulignons depuis de nombreuses années qu'il est impossible de protéger simultanément la confidentialité des utilisateurs avec un chiffrement de bout en bout tout en créant des portes dérobées pour les forces de l'ordre.

Photo: Christina @ wocintechchat.com /Unsplash

youtube intégré

Source: 9to5mac.com