Выпускник Киево-могилянской академии Богдан Кулинич стал победителем конкурса Twitter по поиску алгоритмической предвзятости
Социальная сеть Twitter объявила результаты открытого конкурса по поиску алгоритмической предвзятости в своей системе обрезки фотографий. Компания отключила автоматическую обрезку фотографий в марте этого года после того, как в прошлом году пользователи Twitter провели эксперименты, показавшие, что она отдает предпочтение белым лицам перед черными. Затем компания запустила конкурс по поиску алгоритмических ошибок, чтобы попытаться более тщательно проанализировать проблему.
Конкурс подтвердил сделанные ранее выводы. Работа, занявшая первое место, показала, что алгоритм обрезки Twitter отдает предпочтение лицам "стройным, молодым, со светлым или теплым цветом кожи и гладкой текстурой кожи, а также со стереотипно женскими чертами лица". Записи, занявшие второе и третье места, показали, что система предвзято относится к людям с белыми или седыми волосами, что свидетельствует о дискриминации по возрасту, и отдает предпочтение английскому, а не арабскому шрифту на изображениях.
Первое место в конкурсе и главный приз в 3500 долларов США получил Богдан Кулинич, выпускник Киево-могилянской академии и аспирант EPFL, исследовательского университета в Швейцарии. Кулинич использовал программу ИИ под названием StyleGAN2 для создания большого количества реалистичных лиц, которые он варьировал по цвету кожи, женским и мужским чертам лица и стройности. Затем он ввел эти варианты в алгоритм обрезки фотографий Twitter, чтобы определить, какой из них предпочтительнее.
Как отмечает Кулинич в сопроводительной записке, эти алгоритмические предубеждения усиливают предубеждения в обществе, буквально вырезая "тех, кто не соответствует предпочтениям алгоритма в отношении веса тела, возраста, цвета кожи".
Открытый подход Twitter контрастирует с реакцией других технологических компаний, столкнувшихся с подобными проблемами. Например, когда исследователи под руководством Джой Буоламвини из Массачусетского технологического института обнаружили расовую и гендерную предвзятость в алгоритмах распознавания лиц Amazon, компания развернула масштабную кампанию по дискредитации участников, назвав их работу "вводящей в заблуждение" и "ложной". После многомесячных споров по поводу выводов Amazon в конце концов сдалась, наложив временный запрет на использование этих алгоритмов.
Источник: cnet
Иллюстрации: theverge, Богдан Кулинич