Discord verbietet die Verbreitung von durch künstliche Intelligenz erzeugten Bildern von Kindesmissbrauch

Von: Bohdan Kaminskyi | 12.07.2023, 13:07

Die Plattform Discord hat die Verbreitung von durch künstliche Intelligenz generiertem Material über sexuellen Kindesmissbrauch (CSAM) verboten.

Was wir wissen

John Redgrave, Vizepräsident für Vertrauen und Sicherheit bei Discord, sagte, dass die Plattform die Regeln für generative KI, die gefälschte Inhalte erstellen kann, erweitert. Die aktualisierte Richtlinie verbietet insbesondere die Erstellung und Verbreitung von CSAM-Bildern sowie die Sexualisierung von Kindern in Textchats.

Letzten Monat berichtete die Washington Post, dass durch künstliche Intelligenz erzeugte CSAM-Bilder in den letzten Monaten im Internet verbreitet wurden. Discord erwies sich als eine dieser Plattformen.

Es wurden mehrere Integrationen auf der Plattform vorgenommen, die es den Nutzern ermöglichten, Bilder direkt in Chats zu erstellen. Es stellte sich heraus, dass die Nutzer häufig Bilder mit sexuellem Inhalt erstellten.

Ein Vertreter von Discord erklärte jedoch, dass seit dem letzten Quartal 2021 an einer Aktualisierung der Richtlinie gearbeitet werde. Ihm zufolge sind die neuen Regeln keine Reaktion auf die jüngsten Berichte.

Quelle: NBC.