OpenAI ужесточает контроль над разработкой потенциально опасных моделей ИИ

Автор: Богдан Каминский, 19 декабря 2023, 14:43
OpenAI ужесточает контроль над разработкой потенциально опасных моделей ИИ
Mariia Shalabaieva/Unsplash

Компания OpenAI, разработчик популярного чат-бота ChatGPT, внедряет дополнительные меры контроля для снижения рисков создания вредоносных моделей искусственного интеллекта. 

Что известно

В частности, в OpenAI создается специальная консультативная группа по безопасности. Она будет оценивать риски от разрабатываемых моделей по нескольким направлениям: кибербезопасность, дезинформация, автономность и другие.

Группа сможет давать рекомендации топ-менеджменту компании о запрете или ограничении тех или иных проектов. Кроме того, совет директоров OpenAI получит право вето на решения исполнительного руководства.

По заявлениям компании, эти меры позволят лучше выявлять потенциальные угрозы на ранних стадиях разработки. Однако эксперты отмечают, что реальная эффективность системы зависит от политики самого руководства OpenAI.

Ранее из совета директоров были исключены сторонники ограничения рискованных проектов в области ИИ. А новые члены совета известны скорее коммерческой позицией. Насколько они будут склонны использовать право вето на практике — неизвестно.

Источник: TechCrunch

Подписывайтесь на наш нескучный канал в Telegram, чтобы ничего не пропустить.

Поделиться