OpenAI посилює контроль над розробкою потенційно небезпечних моделей ШІ
Mariia Shalabaieva/Unsplash
Компанія OpenAI, розробник популярного чат-бота ChatGPT, впроваджує додаткові заходи контролю для зниження ризиків створення шкідливих моделей штучного інтелекту.
Що відомо
Зокрема, в OpenAI створюється спеціальна консультативна група з безпеки. Вона оцінюватиме ризики від розроблюваних моделей за кількома напрямками: кібербезпека, дезінформація, автономність та інші.
Група зможе давати рекомендації топменеджменту компанії про заборону або обмеження тих чи інших проєктів. Крім того, рада директорів OpenAI отримає право вето на рішення виконавчого керівництва.
За заявами компанії, ці заходи дадуть змогу краще виявляти потенційні загрози на ранніх стадіях розробки. Однак експерти зазначають, що реальна ефективність системи залежить від політики самого керівництва OpenAI.
Раніше з ради директорів було виключено прихильників обмеження ризикованих проєктів у сфері ШІ. А нові члени ради відомі радше комерційною позицією. Наскільки вони будуть схильні використовувати право вето на практиці - невідомо.
Джерело: TechCrunch