Галюцинації ШІ загрожують науковій достовірності - дослідження

Автор: Богдан Камінський | 21 листопада 2023, 16:49

Growtika/Unsplash

Здатність великих мовних моделей (LLM) генерувати неправдивий, але переконливий контент являє собою пряму загрозу науці та науковій істині. Про це йдеться в дослідженні Оксфордського інституту Інтернету.

Що відомо

Особливість генеративного ШІ "вигадувати" інформацію називають галюцинаціями. Навчені на даних з інтернету LLM не можуть гарантувати достовірності відповідей, вважають дослідники.

Набори даних можуть містити помилкові твердження, думки та неточну інформацію. Крім цього, надмірна довіра людей до чат-ботів може посилити проблему.

Співавтор дослідження Брент Міттельштадт (Brent Mittelstadt) зазначив, що користувачі антропоморфізують LLM, сприймаючи їхні відповіді як істину. Частково цьому сприяє інтерфейс чат-ботів, які спілкуються з людьми і відповідають на, здавалося б, будь-яке питання впевнено звучним, добре написаним текстом.

У науці особливо важливо спиратися на достовірні дані. Щоб уникнути галюцинацій ШІ, вчені рекомендують використовувати LLM як "перекладача з нульовим результатом". Це означає, що користувачі повинні надавати алгоритму відповідні дані та просити перетворити їх, а не покладатися на модель, як на джерело знань.

Таким чином, стає простіше перевірити коректність результату.

Вчені не заперечують, що LLM допоможуть в організації наукового процесу. Однак вони закликали спільноту відповідальніше підходити до використання ШІ.

Джерело: The Next Web