Галюцинації ШІ загрожують науковій достовірності - дослідження
Growtika/Unsplash
Здатність великих мовних моделей (LLM) генерувати неправдивий, але переконливий контент являє собою пряму загрозу науці та науковій істині. Про це йдеться в дослідженні Оксфордського інституту Інтернету.
Що відомо
Особливість генеративного ШІ "вигадувати" інформацію називають галюцинаціями. Навчені на даних з інтернету LLM не можуть гарантувати достовірності відповідей, вважають дослідники.
Набори даних можуть містити помилкові твердження, думки та неточну інформацію. Крім цього, надмірна довіра людей до чат-ботів може посилити проблему.
Співавтор дослідження Брент Міттельштадт (Brent Mittelstadt) зазначив, що користувачі антропоморфізують LLM, сприймаючи їхні відповіді як істину. Частково цьому сприяє інтерфейс чат-ботів, які спілкуються з людьми і відповідають на, здавалося б, будь-яке питання впевнено звучним, добре написаним текстом.
У науці особливо важливо спиратися на достовірні дані. Щоб уникнути галюцинацій ШІ, вчені рекомендують використовувати LLM як "перекладача з нульовим результатом". Це означає, що користувачі повинні надавати алгоритму відповідні дані та просити перетворити їх, а не покладатися на модель, як на джерело знань.
Таким чином, стає простіше перевірити коректність результату.
Вчені не заперечують, що LLM допоможуть в організації наукового процесу. Однак вони закликали спільноту відповідальніше підходити до використання ШІ.
Джерело: The Next Web