Künstliche Intelligenz trainierte auf dem Toxic Board 4chan und begann, Nutzer zu beleidigen
Youtube- Blogger Yannick Kilcher hat einen Bot erstellt und mit einem Toxic Board trainiert Politisch inkorrekt /pol/ auf 4chan.
Künstliche Intelligenz hat mehrere Milliarden anstößige Threads analysiert und ist zu einer wahren Hassredenmaschine geworden. Der Blogger führte das Modell in 10 Bots ein und schickte sie dazu, beleidigende Nachrichten zu schreiben.
Tagsüber erstellten Bots 15.000 Posts mit rassistischen und antisemitischen Texten, was etwa 10 % aller Posts ausmachte, die an diesem Tag im Board erschienen. Modell GPT-vierChan hat sich gut gezeigt. Trotz der Erstellung leerer Beiträge und einiger kleinerer Fehler konnten nicht alle Benutzer erkennen, dass etwas nicht stimmte. Die KI zeichnete sich dadurch aus, dass sie eine giftige Atmosphäre erzeugte, und die Benutzer beleidigten sich auch nach dem Ende des Experiments weiter.
Yannick Kilcher postet eine Kopie seines Programms auf Umarmendes Gesicht, musste aber gesperrt werden. Das haben KI-Forscher herausgefunden GPT-vierChan ist ein unethisches Experiment, kein harmloser Witz.
Quelle: Vize