Künstliche Intelligenz trainierte auf dem Toxic Board 4chan und begann, Nutzer zu beleidigen
Youtube- Blogger Yannick Kilcher hat einen Bot erstellt und mit einem Toxic Board trainiert Politisch inkorrekt /pol/ auf 4chan.
Künstliche Intelligenz hat mehrere Milliarden anstößige Threads analysiert und ist zu einer wahren Hassredenmaschine geworden. Der Blogger führte das Modell in 10 Bots ein und schickte sie dazu, beleidigende Nachrichten zu schreiben.
Tagsüber erstellten Bots 15.000 Posts mit rassistischen und antisemitischen Texten, was etwa 10 % aller Posts ausmachte, die an diesem Tag im Board erschienen. Modell GPT-vierChan hat sich gut gezeigt. Trotz der Erstellung leerer Beiträge und einiger kleinerer Fehler konnten nicht alle Benutzer erkennen, dass etwas nicht stimmte. Die KI zeichnete sich dadurch aus, dass sie eine giftige Atmosphäre erzeugte, und die Benutzer beleidigten sich auch nach dem Ende des Experiments weiter.
Diese Woche ein #KI Modell wurde am veröffentlicht @Umarmungsgesicht das schädliche + diskriminierende Texte produziert und bereits über 30.000 abscheuliche Kommentare online gepostet hat (sagt sein Autor).
– Lauren Oakden-Rayner (Dr.Dr. ????) (@DrLaurenOR) 6. Juni 2022
Dieses Experiment würde niemals einer menschlichen Forschung standhalten #Ethik Tafel. Hier sind meine Empfehlungen.
1/7 https://t.co/tJCegPcFan pic.twitter.com/Mj7WEy2qHl
Yannick Kilcher postet eine Kopie seines Programms auf Umarmendes Gesicht, musste aber gesperrt werden. Das haben KI-Forscher herausgefunden GPT-vierChan ist ein unethisches Experiment, kein harmloser Witz.
Quelle: Vize