OpenAI визнала, що GPT-4 може з "мінімальним ризиком" допомогти в розробці біологічної зброї

Автор: Богдан Камінський | 01 лютого 2024, 17:41

Mariia Shalabaieva/Unsplash

Компанія OpenAI провела дослідження, щоб оцінити ризики використання своєї нової моделі GPT-4 для створення біологічної зброї. Результати показали, що доступ до можливостей ШІ забезпечує "принаймні незначне" збільшення ефективності збору інформації для розробки біозагроз.

Що відомо

В експерименті брали участь 50 біологів і 50 студентів. Їм запропонували знайти інформацію про культивування та поширення небезпечних речовин. Половина випробовуваних отримала доступ до спеціальної версії GPT-4 без обмежень, інша використовувала звичайний інтернет.

Порівняння результатів показало деяке збільшення точності та повноти відповідей у групі з доступом до ШІ. Дослідники OpenAI зробили висновок про існування "принаймні незначного" ризику використання моделі для збору даних про створення біозброї.

Раніше експерти та політики висловлювали побоювання з приводу потенційного застосування чат-ботів для розробки біологічних загроз. У жовтні президент США доручив Міненерго стежити, щоб системи ШІ не становили небезпеки в хімічній і біологічній сферах. Тепер команда OpenAI займається мінімізацією подібних ризиків у міру розвитку технологій ШІ.

Джерело: OpenAI