Исследователи предупреждают о гендерной и культурной предвзятости больших языковых моделей ИИ

Автор: Богдан Каминский, 18 апреля 2024, 21:48
Исследователи предупреждают о гендерной и культурной предвзятости больших языковых моделей ИИ

Согласно исследованию, проведенному по заказу ЮНЕСКО, популярные инструменты генеративного искусственного интеллекта, такие как GPT-3.5, GPT-2 и Llama 2, демонстрируют явные признаки гендерных стереотипов и предвзятости в отношении женщин, представителей различных культур и сексуальных меньшинств.

Что известно

Команда исследователей из Калифорнийского университета во главе с профессором Джоном Шоу-Тейлором (John Shawe-Taylor) и доктором Марией Перес Ортис (Maria Perez Ortiz) выявила, что большие языковые модели склонны ассоциировать женские имена с традиционными гендерными ролями, такими как "семья", "дети" и "муж". В то же время мужские имена чаще связывались со словами, ассоциируемыми с карьерой и бизнесом.

Кроме того, в сгенерированных текстах наблюдались стереотипные представления о профессиях и социальном статусе. Мужчинам чаще назначались более престижные роли, такие как "инженер" или "врач", в то время как женщины ассоциировались с работами, традиционно недооцениваемыми или стигматизируемыми, например "домашняя прислуга", "повар" и "проститутка".

Данное исследование, представленное на встрече-диалоге ЮНЕСКО по цифровой трансформации и на сессии Комиссии ООН по положению женщин, подчеркивает необходимость пересмотра этических норм при разработке систем искусственного интеллекта, чтобы они соответствовали принципам гендерного равенства и уважения прав человека.

Исследователи призывают к согласованным, глобальным усилиям по решению проблемы предвзятости в ИИ, в том числе путем сотрудничества ученых, разработчиков, технологических компаний и политических деятелей.

Источник: TechXplore

Подписывайтесь на наш нескучный канал в Telegram, чтобы ничего не пропустить.

Поделиться