Beliebter LAION-5B Trainingsdatensatz für künstliche Intelligenz enthält Bilder von sexuellem Kindesmissbrauch - Studie

Von: Bohdan Kaminskyi | 21.12.2023, 14:17

LAION

Der LAION-5B Trainingsdatensatz für künstliche Intelligenz enthält mindestens 1679 Verweise auf Bilder von sexuellem Kindesmissbrauch (CSAM).

Was bekannt ist

Forscher des Stanford Internet Observatory begannen im September 2023 mit der Analyse der LAION-Datensätze - sie überprüften Bild-Hashes mit Hilfe spezieller Plattformen, um CSAM zu erkennen. Auch das kanadische Zentrum für Kinderschutz hat eine Überprüfung vorgenommen.

Laut der Beschreibung der Website ist LAION ein Index von Bildern aus dem Internet, kein Repository. Dennoch weisen Experten auf die potenzielle Gefahr hin, die von CSAM-Material ausgeht: KI-Modelle, die auf solchen Daten trainiert werden, können lernen, bösartige Inhalte zu erstellen.

Die Forscher empfehlen, die Verwendung von KI-Modellen, die auf LAION-5B trainiert wurden, einzustellen. Insbesondere das Modell Stable Diffusion von Stability AI wurde teilweise auf diesen Daten trainiert.

Google verwendete auch eine frühere Version von LAION für Imagen, gab diese Daten aber später auf.

Quelle: The Verge