Штучний інтелект натренувався на токсичній дошці 4chan і почав ображати користувачів
YouTube-Блогер Яннік Кілчер створив бота і натренував його за допомогою токсичної дошки Politically Incorrect /pol/ 4chan.
Штучний інтелект проаналізував кілька мільярдів образливих тредів і став справжньою машиною з хейт-спічу. Блогер впровадив модель у 10 ботів та відправив їх писати образливі повідомлення.
За добу боти створили 15 000 постів з расистськими та антисемітськими текстами, що склало близько 10% від усіх записів, що з'явилися на дошці того дня. Модель GPT-4chan добре себе виявила. Попри створення порожніх постів і деякі дрібні помилки, далеко не всі користувачі змогли розпізнати недобре. ШІ відзначився створенням токсичної атмосфери, а користувачі продовжили ображати друга навіть після припинення експерименту.
This week an #AI model was released on @huggingface що виробляє harmful + discriminatory text і має бути отриманий за 30k vile коментарів online (says it's author).
- Lauren Oakden-Rayner (Dr.Dr. ????) (@DrLaurenOR) June 6, 2022
Цей experiment would never pass a human research #ethics board. Тут ми recommendations.
1/7 https://t.co/tJCegPcFan pic.twitter.com/Mj7WEy2qHl
Яннік Кілчер опублікувавши копію своєї програми на Hugging Face, проте її довелося заблокувати. Дослідники в області ШІ вважали, що GPT-4chan - це неетичний експеримент, а не безневинний жарт.
Джерело: Vice