Metas Aufsichtsgremium wird Fälle prüfen, in denen KI zur Erstellung expliziter Bilder verwendet wird

Von: Bohdan Kaminskyi | 18.04.2024, 20:51

Mariia Shalabaieva/Unsplash

Das Aufsichtsgremium von Meta hat sich mit zwei Fällen befasst, in denen künstliche Intelligenz eingesetzt wurde, um explizite Bilder von Personen des öffentlichen Lebens zu erstellen. Das Gremium will die Wirksamkeit von Metas Moderationsrichtlinien und -praktiken in Bezug auf solche Inhalte bewerten.

Was bekannt ist

In einem Fall geht es um einen Instagram-Post, der ein von einer künstlichen Intelligenz generiertes Bild einer nackten indischen Frau zeigt. Es wurde von einem Konto gepostet, das nur solche Inhalte veröffentlicht. Obwohl der Beitrag entfernt wurde, nachdem sich der Nutzer beschwert hatte, wurde auch sein Einspruch nicht berücksichtigt.

Der zweite Fall bezieht sich auf einen Beitrag in einer Facebook-Gruppe, der eine "KI-generierte nackte Frau" mit einer Bildunterschrift zeigte, die sich auf eine "amerikanische Persönlichkeit des öffentlichen Lebens" bezog. Der Beitrag wurde durch ein automatisches Moderationstool entfernt, aber der Verfasser legte gegen die Entscheidung Einspruch ein.

Das Aufsichtsgremium hat beschlossen, beide Fälle zu überprüfen, um festzustellen, ob Meta Frauen auf der ganzen Welt in angemessener Weise vor solchen KI-generierten Inhalten schützt. Das Gremium bittet die Öffentlichkeit zwei Wochen lang um Kommentare und plant, seine Entscheidung und Empfehlungen für Metas Richtlinien bald zu veröffentlichen.

Das Oversight Board hat bereits früher Einfluss auf die Politik des Unternehmens in Bezug auf KI-generierte Inhalte genommen, beispielsweise nach dem Vorfall mit dem Joe-Biden-Video. Daraufhin erklärte sich Meta bereit, mehr solcher KI-Inhalte auf seinen Plattformen zu kennzeichnen.

Quelle: Engadget