OpenAI сформувала групу для оцінки катастрофічних ризиків від ШІ
Mariia Shalabaieva/Unsplash
Компанія OpenAI оголосила про створення нової команди, яка займатиметься зниженням потенційно небезпечних ризиків, пов'язаних зі штучним інтелектом.
Що відомо
Група із забезпечення готовності відстежуватиме, оцінюватиме і запобігатиме серйозним проблемам, які може викликати ШІ. Зокрема йдеться про ядерні загрози, біологічну зброю, обман людей і кібератаки.
OpenAI зазначає, що нова команда розроблятиме політики розвитку ШІ з урахуванням ризиків. Керівником групи призначили Александра Мадрі (Aleksander Madry), експерта MIT з машинного навчання.
На думку OpenAI, передові моделі ШІ можуть принести користь, але також несуть зростаючі ризики. Раніше голова компанії Сем Альтман (Sam Altman) попереджав про можливі катастрофічні наслідки ШІ та закликав уряди ставитися до цієї технології так само серйозно, як до ядерної.
Джерело: OpenAI