Microsoft заблокировала спорные подсказки в Copilot после жалобы инженера

Автор: Богдан Каминский, 11 марта 2024, 18:11

Microsoft

Корпорация Microsoft ограничила некоторые типы запросов в своем инструменте Copilot с генеративным ИИ после того, как инженер компании пожаловался на генерацию систематических изображений с насилием, сексуальным контентом и другого неприемлемого контента.

Что известно

Теперь при вводе терминов вроде "pro choice", названий наркотиков или упоминаний об оружии в руках детей Copilot блокирует такие подсказки. Также сервис предупреждает, что повторное нарушение правил может привести к ограничению аккаунта.

Изменения последовали вскоре после того, как Шейн Джонс, работающий в Microsoft шесть лет, написал письмо в Федеральную торговую комиссию США (FTC) с жалобой на отсутствие должных мер безопасности в продуктах компании на базе ИИ.

Инженер тестировал Copilot Designer с декабря и обнаруживал, что при запросах с относительно нейтральными терминами система генерировала шокирующие изображения демонов, пожирающих младенцев, а также персонажей в сценах насилия.

Хотя новые фильтры блокируют многие спорные подсказки, пользователям Copilot все еще доступны некоторые сценарии с насилием, а также создание изображений персонажей, защищенных авторским правом.

В Microsoft заявили, что продолжают совершенствовать средства контроля за генерируемым ИИ контентом и укреплять фильтры безопасности для предотвращения злоупотреблений.

Компания уже получила массовую критику ранее за появление откровенных изображений знаменитостей, сгенерированных с помощью Copilot Designer.

Для тех, кто хочет знать больше:

Источник: CNBC