OpenAI stellt eine Strategie zur Bekämpfung von Desinformation rechtzeitig vor den Wahlen 2024 vor

Von: Bohdan Kaminskyi | 16.01.2024, 13:36

Zac Wolff/Unsplash

OpenAI, Entwickler des Chatbots ChatGPT, hat Pläne bekannt gegeben, um der Verbreitung von Falschinformationen im Wahlkampf entgegenzuwirken. Besonderes Augenmerk wird dabei auf die Erhöhung der Transparenz der Herkunft von Inhalten gelegt.

Was bekannt ist

OpenAI beabsichtigt insbesondere, kryptografische Tags zu verwenden, um die Quelle der vom DALL-E 3-System erzeugten Bilder zu ermitteln. Dies wird eine bessere Identifizierung von KI-generierten Inhalten und eine Bewertung ihrer Glaubwürdigkeit ermöglichen. Ein ähnlicher Ansatz wird bereits von DeepMind umgesetzt, um KI-Inhalte digital zu kennzeichnen.

Darüber hinaus wird ChatGPT Echtzeit-Nachrichten aus aller Welt mit Urheberschaft und Links anzeigen. Die Nutzer werden auch mit offiziellen Informationen über das Wahlverfahren ihres Landes versorgt.

OpenAI beabsichtigt, Inhalte zu verbieten, die darauf abzielen, den Wahlprozess zu verzerren oder zu stören, ebenso wie Wahlkampf-Apps. Die Nutzer werden die Möglichkeit haben, Verstöße direkt an die Entwickler zu melden.

Wenn diese Maßnahmen erfolgreich sind, sollen sie auf andere Länder ausgeweitet werden, so die Vertreter des Unternehmens. Weitere Ankündigungen zur Anti-Fake-Strategie werden in Kürze erwartet.

Quelle: OpenAI