Große KI-Unternehmen verpflichten sich, gegen Bilder von Kindesmissbrauch vorzugehen
Steve Johnson/Unsplash
Führende Unternehmen im Bereich der künstlichen Intelligenz, darunter Google, Meta, OpenAI, Microsoft und Amazon, haben sich bereit erklärt, Maßnahmen zu ergreifen, um zu verhindern, dass Material zur sexuellen Ausbeutung von Kindern (CSAM) in Trainingsdatensätzen für KI-Modelle verwendet wird.
Was bekannt ist
Die Tech-Giganten haben eine neue Reihe von Grundsätzen unterzeichnet, um die Verbreitung von CSAM einzudämmen. Sie verpflichten sich, dafür zu sorgen, dass die Trainingsdaten keine bösartigen Inhalte enthalten, Datensätze zu vermeiden, bei denen ein hohes Risiko besteht, dass sie solches Material enthalten, und solche Bilder oder Links zu ihnen aus den Datenquellen zu entfernen.
Darüber hinaus beabsichtigen die Unternehmen, KI-Modelle "Stresstests" zu unterziehen, um sicherzustellen, dass sie keine CSAM-Inhalte generieren, und Modelle erst dann freizugeben, wenn sie die Anforderungen an die Kindersicherheit erfüllt haben.
Unternehmen wie Anthropic, Civitai, Metaphysic, Mistral AI und Stability AI haben sich ebenfalls der Initiative angeschlossen.
Die wachsende Popularität der generativen KI hat die Verbreitung von gefälschten Bildern im Internet gefördert, darunter auch synthetische Fotos der sexuellen Ausbeutung von Kindern. Jüngste Untersuchungen haben ergeben, dass in einigen beliebten Trainingsdatensätzen für KI-Modelle Hinweise auf CSAM zu finden sind.
Thorn, eine gemeinnützige Organisation, die sich der Bekämpfung des Kindesmissbrauchs verschrieben hat und an der Entwicklung der Leitlinien mitgewirkt hat, warnt davor, dass die Erzeugung von CSAM durch KI die Identifizierung von Opfern verhindern, die Nachfrage steigern und das Auffinden und Verbreiten von problematischem Material erleichtern könnte.
Google sagt, dass das Unternehmen neben der Annahme der Grundsätze auch die Werbekostenzuschüsse für das Nationale Zentrum für vermisste und ausgebeutete Kinder (NCMEC) erhöht hat, um Initiativen zu fördern, die das Bewusstsein schärfen und den Menschen die Möglichkeit geben, Missbrauch zu erkennen und zu melden.
Quelle: The Verge