OpenAI признала, что GPT-4 может с "минимальным риском" помочь в разработке биологического оружия

Автор: Богдан Каминский, 01 февраля 2024, 17:44
OpenAI признала, что GPT-4 может с "минимальным риском" помочь в разработке биологического оружия
Mariia Shalabaieva/Unsplash

Компания OpenAI провела исследование, чтобы оценить риски использования своей новой модели GPT-4 для создания биологического оружия. Результаты показали, что доступ к возможностям ИИ обеспечивает "по крайней мере незначительное" увеличение эффективности сбора информации для разработки биоугроз.

Что известно

В эксперименте участвовали 50 биологов и 50 студентов. Им предложили найти информацию о культивировании и распространении опасных веществ. Половина испытуемых получила доступ к специальной версии GPT-4 без ограничений, другая использовала обычный интернет.

Сравнение результатов показало некоторое увеличение точности и полноты ответов в группе с доступом к ИИ. Исследователи OpenAI сделали вывод о существовании "по крайней мере незначительного" риска использования модели для сбора данных о создании биооружия.

Ранее эксперты и политики высказывали опасения по поводу потенциального применения чат-ботов для разработки биологических угроз. В октябре президент США поручил Минэнерго следить, чтобы системы ИИ не представляли опасности в химической и биологической сферах. Теперь команда OpenAI занимается минимизацией подобных рисков по мере развития технологий ИИ.

Источник: OpenAI

Подписывайтесь на наш нескучный канал в Telegram, чтобы ничего не пропустить.

Поделиться