Исследователи предупреждают о гендерной и культурной предвзятости больших языковых моделей ИИ
Согласно исследованию, проведенному по заказу ЮНЕСКО, популярные инструменты генеративного искусственного интеллекта, такие как GPT-3.5, GPT-2 и Llama 2, демонстрируют явные признаки гендерных стереотипов и предвзятости в отношении женщин, представителей различных культур и сексуальных меньшинств.
Что известно
Команда исследователей из Калифорнийского университета во главе с профессором Джоном Шоу-Тейлором (John Shawe-Taylor) и доктором Марией Перес Ортис (Maria Perez Ortiz) выявила, что большие языковые модели склонны ассоциировать женские имена с традиционными гендерными ролями, такими как "семья", "дети" и "муж". В то же время мужские имена чаще связывались со словами, ассоциируемыми с карьерой и бизнесом.
Кроме того, в сгенерированных текстах наблюдались стереотипные представления о профессиях и социальном статусе. Мужчинам чаще назначались более престижные роли, такие как "инженер" или "врач", в то время как женщины ассоциировались с работами, традиционно недооцениваемыми или стигматизируемыми, например "домашняя прислуга", "повар" и "проститутка".
Данное исследование, представленное на встрече-диалоге ЮНЕСКО по цифровой трансформации и на сессии Комиссии ООН по положению женщин, подчеркивает необходимость пересмотра этических норм при разработке систем искусственного интеллекта, чтобы они соответствовали принципам гендерного равенства и уважения прав человека.
Исследователи призывают к согласованным, глобальным усилиям по решению проблемы предвзятости в ИИ, в том числе путем сотрудничества ученых, разработчиков, технологических компаний и политических деятелей.
Источник: TechXplore