Apples CSAM-Probleme könnten zurück sein, da die EU ein Gesetz plant, das eine Erkennung erfordert

Von: Philippa Axinous | 11.05.2022, 15:10

Die CSAM-Probleme von Apple könnten zurückkommen, nachdem Kontroversen über das Scannen von iPhones auf Materialien zum sexuellen Missbrauch von Kindern dazu führten, dass das Unternehmen seine Pläne aussetzte.

Ein Bericht besagt heute, dass die Europäische Union ein Gesetz plant, das Technologiegiganten wie Apple dazu verpflichten würde, CSAM zu erkennen, zu melden und zu entfernen, und dass wir bereits diese Woche einen Entwurf des neuen Gesetzes sehen werden …

Apples CSAM-Probleme

Die meisten Cloud-Dienste scannen bereits nach Materialien zum sexuellen Missbrauch von Kindern. Alle entdeckten Beispiele werden den Strafverfolgungsbehörden gemeldet.

Apple wollte dasselbe tun, wollte aber gleichzeitig das Scannen auf eine Weise durchführen, die die Privatsphäre der Benutzer schützt. Es kündigte daher Pläne für das Scannen auf dem Gerät an, sodass nur bestätigte Übereinstimmungen jemals von einem menschlichen Moderator angezeigt werden.

  • Apple lädt die CSAM-Datenbank-Hashes auf Ihr iPhone herunter
    (digitale Signaturen von CSAM-Bildern, offensichtlich keine tatsächlichen Bilder).
  • Ein Prozess auf dem Gerät sucht nach Übereinstimmungen mit Hashes Ihrer Fotos.
  • Wenn weniger als 30 gefunden werden, wird nichts unternommen.
  • Wenn mehr als 30 Übereinstimmungen gefunden werden, werden niedrige Auflösungen Ihrer Fotos manuell von Apple untersucht.
  • Wenn sich herausstellt, dass die Fotos unschuldig sind, werden keine weiteren Maßnahmen ergriffen.
  • Wenn die manuelle Überprüfung sie als CSAM bestätigt, werden die Strafverfolgungsbehörden informiert.

Experten und Aktivisten wiesen jedoch sofort auf mögliche Fehler im Ansatz hin – etwas, das Apple hätte erwarten sollen, aber anscheinend nicht tat.

Bedenken wurden von Cybersicherheitsexperten, Menschenrechtsorganisationen, Regierungen und Mitarbeitern von Apple geäußert. Es wurden vier Hauptbedenken geäußert, die hier erläutert werden:

  • Versehentliche Fehlalarme können den Ruf einer Person ruinieren.
    (Apple hat dieses Problem gelöst, indem es einen Schwellenwert von mehr als 30 Übereinstimmungen festgelegt hat.)
  • Beabsichtigte Fehlalarme (auch bekannt als Kollisionsangriffe) könnten erstellt werden, um dasselbe Ziel zu erreichen.
  • Autoritäre Regierungen könnten der Datenbank politische Plakate und ähnliches hinzufügen.
  • Dieselben Hash-basierten Suchen auf dem Gerät könnten später auf iMessage angewendet werden.

Das Unternehmen sagte dann, dass es einige Zeit dauern werde, um seine Pläne zu überdenken. Das war im September letzten Jahres, und acht Monate sind ohne ein einziges Wort von Apple zu diesem Thema vergangen, was einige vermuten lässt, dass das Unternehmen so lange wie möglich einfach so tun wollte, als wäre es nie passiert. Aber das wird wohl nicht mehr lange möglich sein …

Geplantes europäisches Gesetz zur CSAM-Erkennung

Politisch berichtet, dass die Europäische Union plant, ein neues Gesetz anzukündigen, das Technologiegiganten dazu verpflichtet, nach CSAM zu scannen. Das würde dazu führen, dass Apple herausfinden müsste, wie es nachkommen kann, ohne die Kontroverse neu zu entfachen.

Die Kommission wird voraussichtlich diese Woche einen Gesetzesentwurf veröffentlichen, der digitale Unternehmen wie Meta Platforms, Google und Apple dazu verpflichten könnte, illegale Bilder von Missbrauch zu erkennen, zu entfernen und den Strafverfolgungsbehörden unter Androhung von Geldbußen zu melden.

Laut einem von POLITICO am Dienstag erhaltenen Leak des Vorschlags sagte die Kommission, dass sich freiwillige Maßnahmen einiger Plattformen bisher „als unzureichend erwiesen“ haben, um den Missbrauch von Online-Diensten zum Zwecke des sexuellen Missbrauchs von Kindern zu bekämpfen.

Das Regelwerk kommt, als Kinderschutz-Hotlines eine Rekordmenge an beunruhigenden Inhalten melden, die während der Coronavirus-Pandemie online zirkulieren. Europa ist ein Hotspot für das Hosten solcher Inhalte, da sich 2021 62 Prozent der weltweit illegalen Bilder auf europäischen Datenservern befinden.

Wir müssen warten, bis der Gesetzesentwurf veröffentlicht wird, um zu sehen, was genau erforderlich ist, aber auf die eine oder andere Weise wird Apple das Problem lösen müssen.

Die Situation wird wahrscheinlich chaotisch, da einer der wichtigsten Befürworter des neuen Gesetzes offenbar gegen Ende-zu-Ende-Verschlüsselung ist. Die Kommissarin für Inneres, Ylva Johansson, sagte:

Missbraucher verstecken sich hinter der Ende-zu-Ende-Verschlüsselung; Es ist einfach zu bedienen, aber fast unmöglich zu knacken, was es den Strafverfolgungsbehörden erschwert, Verbrechen zu untersuchen und zu verfolgen.

Wir weisen seit vielen Jahren darauf hin, dass es unmöglich ist, die Privatsphäre der Benutzer gleichzeitig mit einer Ende-zu-Ende-Verschlüsselung zu schützen und gleichzeitig Hintertüren für die Strafverfolgung zu schaffen.

Foto: Christina @ wocintechchat.com /Unsplash

Youtube einbetten