OpenAI визнала, що GPT-4 може з "мінімальним ризиком" допомогти в розробці біологічної зброї
Mariia Shalabaieva/Unsplash
Компанія OpenAI провела дослідження, щоб оцінити ризики використання своєї нової моделі GPT-4 для створення біологічної зброї. Результати показали, що доступ до можливостей ШІ забезпечує "принаймні незначне" збільшення ефективності збору інформації для розробки біозагроз.
Що відомо
В експерименті брали участь 50 біологів і 50 студентів. Їм запропонували знайти інформацію про культивування та поширення небезпечних речовин. Половина випробовуваних отримала доступ до спеціальної версії GPT-4 без обмежень, інша використовувала звичайний інтернет.
Порівняння результатів показало деяке збільшення точності та повноти відповідей у групі з доступом до ШІ. Дослідники OpenAI зробили висновок про існування "принаймні незначного" ризику використання моделі для збору даних про створення біозброї.
Раніше експерти та політики висловлювали побоювання з приводу потенційного застосування чат-ботів для розробки біологічних загроз. У жовтні президент США доручив Міненерго стежити, щоб системи ШІ не становили небезпеки в хімічній і біологічній сферах. Тепер команда OpenAI займається мінімізацією подібних ризиків у міру розвитку технологій ШІ.
Джерело: OpenAI