L'intelligenza artificiale si è allenata sulla tavola tossica 4chan e ha iniziato a insultare gli utenti

Di: Maksim Panasovskyi | 09.06.2022, 13:24
L'intelligenza artificiale si è allenata sulla tavola tossica 4chan e ha iniziato a insultare gli utenti

Youtube- Il blogger Yannick Kilcher ha creato un bot e lo ha addestrato con una tavola tossica Politicamente scorretto /pol/ su 4chan.

L'intelligenza artificiale ha analizzato diversi miliardi di thread offensivi ed è diventata una vera macchina per incitare all'odio. Il blogger ha introdotto il modello in 10 bot e li ha inviati a scrivere messaggi offensivi.

Durante la giornata, i bot hanno creato 15.000 post con testi razzisti e antisemiti, che ammontavano a circa il 10% di tutti i post apparsi sulla bacheca quel giorno. Modello GPT-quattrocan si è mostrata bene. Nonostante la creazione di post vuoti e alcuni piccoli errori, non tutti gli utenti sono stati in grado di riconoscere che qualcosa non andava. L'IA si è distinta per creare un'atmosfera tossica e gli utenti hanno continuato a insultarsi a vicenda anche dopo la fine dell'esperimento.

Yannick Kilcher pubblica una copia del suo programma Faccia abbracciata, ma doveva essere bloccato. I ricercatori di IA lo hanno scoperto GPT-quattrocan è un esperimento non etico, non uno scherzo innocuo.

Fonte: Vice