YouTube verbietet Inhalte mit KI, die die Stimmen toter Kinder realistisch nachahmen

Von: Bohdan Kaminskyi | 09.01.2024, 16:45

YouTube

YouTube wird Videos verbieten, die künstliche Intelligenz nutzen, um die Stimmen von verstorbenen Minderjährigen oder Gewaltopfern realistisch zu imitieren und die Umstände ihres Todes zu beschreiben. Die neuen Beschränkungen treten am 16. Januar in Kraft.

Was bekannt ist

Der Grund für die Änderungen war das Auftauchen von Videos, in denen die Autoren mithilfe von KI-Technologie das Aussehen und die Stimmen von Kindern nachahmen, die bei aufsehenerregenden Verbrechen ums Leben kamen, um in ihrem Namen über ihre Erfahrungen mit Gewalt und Tod zu sprechen. Im Mittelpunkt solcher Videos standen die Fälle der vermissten britischen Mädchen Madeleine McCann und James Bulger sowie des in den USA ermordeten Gabriel Fernández.

Derartige Inhalte werden künftig von YouTube entfernt, und ihre Urheber erhalten einen ersten Strike und ein einwöchiges Veröffentlichungsverbot. Nach drei Verstößen wird der Kanal gesperrt.

YouTube hat bereits früher die Verpflichtung eingeführt, den Einsatz von KI-Technologie in Videos offenzulegen, in denen synthetische Menschen oder Stimmen besonders realistisch klingen. Es ist auch verboten, KI-generierte "realistische Gewalt" zu zeigen, selbst wenn sie entsprechend gekennzeichnet ist.

Eine fehlende Kennzeichnung kann zur Entfernung von Inhalten und sogar zum Ausschluss aus dem Partnerprogramm von YouTube führen.

Quelle: Google