OpenAI запускає групу Red Teaming Network для підвищення надійності своїх моделей
Компанія OpenAI оголосила про запуск програми Red Teaming Network - групи експертів, які оцінюватимуть і знижуватимуть ризики в моделях штучного інтелекту.
Що відомо
За словами OpenAI, група допоможе виявляти упередження в моделях на кшталт DALL-E 2 і GPT-4, а також знаходити підказки, що змушують ШІ ігнорувати фільтри безпеки.
Раніше компанія теж залучала сторонніх тестувальників, але тепер ця робота формалізована для "поглиблення і розширення" перевірок із залученням експертів і організацій.
Учасники мережі зможуть взаємодіяти один з одним із загальних питань тестування ШІ. При цьому не кожен учасник проєкту працюватиме над новими продуктами OpenAI.
Також компанія запрошує до участі фахівців у різних галузях, включно з лінгвістикою, біометрією, фінансами та охороною здоров'я. Попередній досвід роботи із системами ШІ не потрібен, проте угода про нерозголошення може вплинути на інші дослідження, попередили в OpenAI.
Джерело: OpenAI