Microsoft заблокувала спірні підказки в Copilot після скарги інженера

Автор: Богдан Камінський | 11 березня 2024, 18:11

Microsoft

Корпорація Microsoft обмежила деякі типи запитів у своєму інструменті Copilot із генеративним ШІ після того, як інженер компанії поскаржився на генерацію систематичних зображень із насильством, сексуальним контентом та іншого неприйнятного контенту.

Що відомо

Тепер при введенні термінів на кшталт "pro choice", назв наркотиків або згадок про зброю в руках дітей Copilot блокує такі підказки. Також сервіс попереджає, що повторне порушення правил може призвести до обмеження акаунта.

Зміни відбулися незабаром після того, як Шейн Джонс, який працює в Microsoft шість років, написав листа до Федеральної торгової комісії США (FTC) зі скаргою на відсутність належних заходів безпеки в продуктах компанії на базі ШІ.

Інженер тестував Copilot Designer із грудня і виявив, що під час запитів із відносно нейтральними термінами система генерувала шокуючі зображення демонів, які пожирають немовлят, а також персонажів у сценах насильства.

Хоча нові фільтри блокують багато спірних підказок, користувачам Copilot все ще доступні деякі сценарії з насильством, а також створення зображень персонажів, захищених авторським правом.

У Microsoft заявили, що продовжують удосконалювати засоби контролю за контентом, що генерується ШІ, і зміцнювати фільтри безпеки для запобігання зловживанням.

Компанія вже отримала масову критику раніше за появу відвертих зображень знаменитостей, згенерованих за допомогою Copilot Designer.

Для тих, хто хоче знати більше:

Джерело: CNBC