OpenAI hat eine iranbezogene Desinformationskampagne gestoppt, die ChatGPT zur Erstellung von Fake News nutzte
OpenAI hat nach eigenen Angaben eine iranische Beeinflussungskampagne gestoppt, die ChatGPT zur Erstellung von Fake News und Social-Media-Posts nutzte, die auf Amerikaner abzielten.
Was bekannt ist
Das Unternehmen identifizierte und blockierte Konten, die Inhalte für fünf Websites erstellten, die sich als Nachrichtenagenturen ausgaben und polarisierende Botschaften zu Themen wie dem US-Präsidentschaftswahlkampf, LGBTQ+-Rechten und dem Krieg in Gaza verbreiteten.
Die Operation mit dem Namen "Storm 2035" stand in Verbindung mit der iranischen Regierung und umfasste ein Dutzend Konten auf X und eines auf Instagram. OpenAI stellte fest, dass die Aktion keine nennenswerte Unterstützung erfuhr, da die meisten Beiträge keine Likes, Reposts oder Kommentare erhielten.
Die Operation umfasste auch die Erstellung von Inhalten über Israels Präsenz bei den Olympischen Spielen, die venezolanische Politik, die Rechte lateinamerikanischer Gemeinschaften und die schottische Unabhängigkeit. OpenAI betonte, dass mit der Aktion versucht wurde, beide Seiten der US-Regierung anzusprechen, aber von keiner Seite Unterstützung erhielt.
Quelle: Offene KI