Comme on le craignait, la loi européenne sur l'analyse des contenus CSAM pourrait interdire le chiffrement de bout en bout des messages

Par: Anry Sergeev | 12.05.2022, 16:41
Comme on le craignait, la loi européenne sur l'analyse des contenus CSAM pourrait interdire le chiffrement de bout en bout des messages

Nous avons appris hier qu'une nouvelle loi proposée par l'UE sur l'analyse CSAM pour les géants de la technologie obligerait Apple à revoir ses propres plans de détection des contenus pédopornographiques. La société les avait discrètement mis de côté en réponse à une énorme controverse sur son approche proposée.

Beaucoup craignaient que le projet de loi n'implique une nouvelle attaque contre la messagerie cryptée de bout en bout, et cela a maintenant été confirmé par le libellé du document…

Arrière-plan

Il ne fait aucun doute qu'il existe un problème à grande échelle avec le matériel d'abus sexuel d'enfants. Le National Center for Missing & Exploited Children (NCMEC) a déclaré que l'année dernière reçu 29,3 millions de rapports, dont la quasi-totalité provenait de FAI et de sociétés de cloud suite à l'analyse CSAM de leurs serveurs.

La question est de savoir comment s'y prendre au mieux, sans envahir la vie privée d'utilisateurs innocents. Apple l'année dernière pensait avoir résolu ce problème. Il a annoncé des plans d'analyse sur l'appareil de manière à ce que seules les correspondances confirmées soient vues par un modérateur humain.

Cependant, les experts et les militants de la protection de la vie privée ont rapidement souligné quatre problèmes avec l'approche d'Apple. La société a trouvé une solution à l'un d'entre eux - les faux positifs accidentels - en fixant un seuil de plus de 30 images pour qu'un rapport soit déposé. Les trois autres problèmes demeurent.

Proposition de loi de l'UE sur l'analyse des contenus CSAM

L'Union européenne a publié hier le projet d'une nouvelle loi qui obligerait les géants de la technologie à effectuer des analyses CSAM. Cette exigence s'étend non seulement à la détection des images CSAM, mais également aux tentatives de toilettage, ce qui nécessiterait la numérisation du texte.

Ce n'est actuellement pas possible avec iMessage, ni d'autres applications comme WhatsApp, qui utilisent un cryptage de bout en bout.

Filaire rapports.

Toutes vos photos WhatsApp, vos textes iMessage et vos vidéos Snapchat pourraient être scannées pour rechercher des images et des vidéos d'abus sexuels sur des enfants en vertu des nouvelles règles européennes proposées. Les plans, avertissent les experts, pourraient saper le cryptage de bout en bout qui protège des milliards de messages envoyés chaque jour et entraver la confidentialité en ligne des gens […]

Dans le cadre de ces plans, les entreprises technologiques - allant des services d'hébergement Web aux plates-formes de messagerie - peuvent être invitées à "détecter" à la fois les contenus CSAM nouveaux et précédemment découverts, ainsi que les cas potentiels de "grooming". La détection peut avoir lieu dans des messages de chat, des fichiers téléchargés sur des services en ligne ou sur des sites Web hébergeant du matériel abusif […]

La proposition européenne d'analyse des messages des personnes a suscité la frustration des groupes de défense des droits civiques et des experts en sécurité, qui affirment qu'elle est susceptible de saper le chiffrement de bout en bout qui est devenu la valeur par défaut des applications de messagerie telles que iMessage, WhatsApp et Signal.

"Incroyablement décevant de voir qu'une proposition de règlement européen sur Internet échoue à protéger le chiffrement de bout en bout", a déclaré Will Cathcart, responsable de WhatsApp. tweeté. "Cette proposition obligerait les entreprises à scanner les messages de chaque personne et mettrait gravement en danger la vie privée et la sécurité des citoyens de l'UE." Tout système qui affaiblit le chiffrement de bout en bout pourrait être abusé ou étendu pour rechercher d'autres types de contenu, disent les chercheurs.

Les législateurs ont persisté à demander des portes dérobées dans les messages chiffrés E2E, échouant systématiquement à comprendre qu'il s'agit d'une impossibilité technologique. Comme le dit Alan Woodward, professeur de cybersécurité à l'Université de Surrey : "Soit vous avez E2EE, soit vous n'en avez pas."

Woodward note qu'il existe une solution de contournement possible : l'analyse sur l'appareil, une fois le message déchiffré. Mais c'est précisément la même approche qu'Apple a proposé d'utiliser pour l'analyse CSAM, et qui a conduit à un tel tollé sur le potentiel d'abus des gouvernements répressifs.

Photo: Ali Abdul Rahman /Unsplash

youtube intégré

Source: 9to5mac.com