Великі мовні моделі повторюють теорії змови та інші форми дезінформації - дослідження

Автор: Богдан Камінський | 22 грудня 2023, 20:51

Levart_Photographer/Unsplash

Вчені з Університету Ватерлоо з'ясували, що великі мовні моделі на кшталт GPT-3 схильні повторювати теорії змови, шкідливі стереотипи та інші форми дезінформації.

Що відомо

Під час дослідження модель ставили запитання про понад 1200 тверджень, що стосуються фактів і дезінформації. Виявилося, що в 4,8-26% випадків залежно від категорії GPT-3 погоджувалася з помилковими висловлюваннями.

Як зазначив професор Ден Браун (Dan Brown), результати актуальні й для пізніших моделей на кшталт ChatGPT, які навчалися на виходах GPT-3. Проблема в тому, що невеликі варіації у формулюванні запитань можуть кардинально змінювати відповіді.

Наприклад, додавання фраз на кшталт "я думаю" збільшувало ймовірність згоди ChatGPT із хибним твердженням. Це створює потенційну небезпеку поширення дезінформації, зазначають дослідники.

"Нездатність моделей відокремити правду від вигадки надовго залишиться головним питанням довіри до них", - резюмує професор Браун.

Джерело: TechXplore