Meta wird eine Vorschrift einführen, die die Verwendung von Dipfakes in der politischen und sozialen Werbung kennzeichnet
Elyse Samuels/The Washington Post/Getty Images
Meta wird von politischen Werbetreibenden verlangen, dass sie den Einsatz von künstlicher Intelligenz oder digitaler Manipulation in Anzeigen auf Facebook und Instagram kennzeichnen.
Was bekannt ist
Ab Januar 2023 müssen alle politischen und sozialen Anzeigen gekennzeichnet werden, wenn Bilder oder Videos mit Hilfe von KI digital verändert wurden. Dazu gehören Sprachsynthese, Dipfakes und mehr.
Den Nutzern wird eine Benachrichtigung angezeigt, dass eine Anzeige digital manipuliert wurde. Kleine Bearbeitungen wie das Beschneiden müssen nicht besonders gekennzeichnet werden.
Bei Nichteinhaltung behält sich das Unternehmen das Recht vor, die Anzeige abzulehnen. Bei wiederholter Nichtangabe von Informationen können Strafen gegen den Inserenten verhängt werden, so das Unternehmen.
Die neuen Regeln werden vor dem Hintergrund wichtiger Wahlen in den USA, dem Vereinigten Königreich, der EU und anderen Regionen eingeführt. Sie sollen die Transparenz der politischen Werbung erhöhen und Fehlinformationen im Vorfeld wichtiger Ereignisse bekämpfen.
Quelle: Meta