L'intelligenza artificiale si è allenata sulla tavola tossica 4chan e ha iniziato a insultare gli utenti
Youtube- Il blogger Yannick Kilcher ha creato un bot e lo ha addestrato con una tavola tossica Politicamente scorretto /pol/ su 4chan.
L'intelligenza artificiale ha analizzato diversi miliardi di thread offensivi ed è diventata una vera macchina per incitare all'odio. Il blogger ha introdotto il modello in 10 bot e li ha inviati a scrivere messaggi offensivi.
Durante la giornata, i bot hanno creato 15.000 post con testi razzisti e antisemiti, che ammontavano a circa il 10% di tutti i post apparsi sulla bacheca quel giorno. Modello GPT-quattrocan si è mostrata bene. Nonostante la creazione di post vuoti e alcuni piccoli errori, non tutti gli utenti sono stati in grado di riconoscere che qualcosa non andava. L'IA si è distinta per creare un'atmosfera tossica e gli utenti hanno continuato a insultarsi a vicenda anche dopo la fine dell'esperimento.
Questa settimana un #AI il modello è stato rilasciato il @huggingface che produce testo dannoso + discriminatorio e ha già pubblicato oltre 30.000 commenti vili online (dice che è l'autore).
— Lauren Oakden-Rayner (Dr.Dr. ????) (@DrLaurenOR) 6 giugno 2022
Questo esperimento non supererebbe mai una ricerca umana #etica asse. Ecco i miei consigli.
1/7 https://t.co/tJCegPcFan pic.twitter.com/Mj7WEy2qHl
Yannick Kilcher pubblica una copia del suo programma Faccia abbracciata, ma doveva essere bloccato. I ricercatori di IA lo hanno scoperto GPT-quattrocan è un esperimento non etico, non uno scherzo innocuo.
Fonte: Vice