Искусственный интеллект натренировался на токсичной доске 4chan и принялся оскорблять пользователей
YouTube-блогер Янник Килчер создал бота и натренировал его с помощью токсичной доски Politically Incorrect /pol/ в 4chan.
Искусственный интеллект проанализировал несколько миллиардов оскорбительных тредов и стал настоящей машиной по хейт-спичу. Блогер внедрил модель в 10 ботов и отправил их писать оскорбительные сообщения.
За сутки боты создали 15 000 постов с расистскими и антисемитскими текстами, что составило порядка 10% от всех записей, появившихся на доске в тот день. Модель GPT-4chan хорошо себя проявила. Несмотря на создание пустых постов и некоторые мелки ошибки, далеко не все пользователи смогли распознать неладное. ИИ отличился созданием токсичной атмосферы, а пользователи продолжили оскорблять друга даже после прекращения эксперимента.
This week an #AI model was released on @huggingface that produces harmful + discriminatory text and has already posted over 30k vile comments online (says it's author).
— Lauren Oakden-Rayner (Dr.Dr. ????) (@DrLaurenOR) June 6, 2022
This experiment would never pass a human research #ethics board. Here are my recommendations.
1/7 https://t.co/tJCegPcFan pic.twitter.com/Mj7WEy2qHl
Янник Килчер опубликовав копию своей программы на Hugging Face, однако её пришлось заблокировать. Исследователи в области ИИ посчитали, что GPT-4chan – это неэтичный эксперимент, а не безобидная шутка.
Источник: Vice
Для тех, кто хочет знать больше: