I problemi CSAM di Apple potrebbero essere tornati, poiché l'UE prevede una legge che richiede il rilevamento
I problemi CSAM di Apple potrebbero essere tornati, dopo che le polemiche sulla questione della scansione degli iPhone per materiale pedopornografico hanno portato l'azienda a sospendere i suoi piani.
Un rapporto di oggi afferma che l'Unione Europea sta pianificando una legge che richiederebbe ai giganti della tecnologia come Apple di rilevare, segnalare e rimuovere CSAM e che vedremo una bozza della nuova legge già questa settimana...
Problemi CSAM di Apple
La maggior parte dei servizi cloud esegue già la scansione di materiale pedopornografico. Eventuali esempi rilevati vengono segnalati alle forze dell'ordine.
Apple voleva fare lo stesso, ma allo stesso tempo voleva eseguire la scansione in un modo che proteggesse la privacy degli utenti. Ha quindi annunciato piani per la scansione sul dispositivo in un modo che significava che solo le partite confermate sarebbero state visualizzate da un moderatore umano.
- Apple scarica gli hash del database CSAM sul tuo iPhone
(firme digitali di immagini CSAM, non immagini reali, ovviamente). - Un processo sul dispositivo cerca le corrispondenze con gli hash delle tue foto.
- Se ne vengono trovati meno di 30, non viene eseguita alcuna azione.
- Se vengono trovate più di 30 corrispondenze, le basse risoluzioni delle tue foto vengono esaminate manualmente da Apple.
- Se le foto risultano innocenti, non vengono intraprese ulteriori azioni.
- Se la revisione manuale li conferma come CSAM, le forze dell'ordine vengono informate.
Tuttavia, esperti e attivisti hanno immediatamente sottolineato potenziali difetti nell'approccio, qualcosa che Apple avrebbe dovuto aspettarsi, ma a quanto pare non l'ha fatto.
Preoccupazioni sono state espresse da esperti di sicurezza informatica, organizzazioni per i diritti umani, governi e dipendenti di Apple. Sono state sollevate quattro preoccupazioni principali, spiegate qui:
- Falsi positivi accidentali potrebbero rovinare la reputazione di qualcuno.
(Apple ha affrontato questo problema impostando una soglia di oltre 30 partite.) - Potrebbero essere creati falsi positivi intenzionali (aka attacchi di collisione) per raggiungere lo stesso obiettivo.
- I governi autoritari potrebbero aggiungere manifesti politici e simili al database.
- Le stesse ricerche sul dispositivo basate su hash potrebbero essere successivamente applicate a iMessage.
La società ha quindi affermato che ci sarebbe voluto del tempo per ripensare ai suoi piani. Era il settembre dello scorso anno e sono passati otto mesi senza una sola parola sull'argomento da parte di Apple, portando alcuni a sospettare che la società intendesse semplicemente fingere che non fosse mai successo il più a lungo possibile. Ma ciò potrebbe non essere possibile ancora per molto...
Legge europea pianificata sul rilevamento CSAM
Politico riporta che l'Unione Europea sta pianificando di annunciare una nuova legge che richiede ai giganti della tecnologia di cercare CSAM. Ciò lascerebbe Apple a dover capire come conformarsi senza riaccendere la controversia.
La Commissione dovrebbe rilasciare una bozza di legge questa settimana che potrebbe richiedere alle società digitali come Meta Platforms, Google e Apple di rilevare, rimuovere e segnalare immagini illegali di abusi alle forze dell'ordine sotto minaccia di multe.
Secondo una fuga di notizie della proposta ottenuta martedì da POLITICO, la Commissione ha affermato che le misure volontarie adottate da alcune piattaforme si sono finora "dimostrate insufficienti" per affrontare l'uso improprio dei servizi online a fini di abusi sessuali su minori.
Il regolamento arriva quando le hotline per la protezione dei minori segnalano una quantità record di contenuti inquietanti che circolano online durante la pandemia di coronavirus. L'Europa è un punto caldo per l'hosting di tali contenuti, con il 62% delle immagini illegali del mondo che si trovano su server di dati europei nel 2021.
Dovremo aspettare fino alla pubblicazione del disegno di legge per vedere esattamente cosa richiede, ma in un modo o nell'altro Apple dovrà risolvere il problema.
È probabile che la situazione diventi complicata, poiché uno dei principali sostenitori della nuova legge sembra essere contrario alla crittografia end-to-end. La Commissaria per gli Affari interni Ylva Johansson ha dichiarato:
Gli abusatori si nascondono dietro la crittografia end-to-end; è facile da usare ma quasi impossibile da decifrare, rendendo difficile per le forze dell'ordine indagare e perseguire i crimini.
Abbiamo sottolineato per molti anni che è impossibile proteggere contemporaneamente la privacy degli utenti con la crittografia end-to-end creando allo stesso tempo backdoor per le forze dell'ordine.
Foto: Cristina @ wocintechchat.com /Spruzza
youtube incorporare
Fonte: 9to5mac.com