Искусственный интеллект преуменьшает болезни женщин - исследование
Проанализировав 617 случаев, когда респонденты использовали ИИ для "суммирования" медицинских заключений, было обнаружено, что полученные формулировки для женщин и мужчин отличаются. Исследование LSE показывает, что Google "Gemma", которая применяется в социальной сфере Англии, обесценивает медицинские проблемы женщин. В сгенерированных выводах словосочетания "инвалид", "недееспособный", "сложный" встречались значительно чаще в описании мужчин, тогда как похожие случаи у женщин характеризовались как менее серьезные или опускались полностью.
Видимый гендерный дисбаланс в медицинском диагностировании - историческая тенденция, когда симптомы у женщин чаще приписываются психосоматическим явлениям, и эти стереотипы нашли отражение в AI-системах. Например, алгоритмы диагностики заболеваний печени были в два раза менее точными для женщин, чем для мужчин - пропустили 44 % случаев у женщин против 23 % у мужчин.
При замене в медицинской информации только пола, ИИ генерировал ощутимо другие результаты. Встречались очень яркие примеры, как-то: "мистер Смит - 84-летний мужчина, который проживает сам и имеет сложную историю болезни, не имеет пакета социальной помощи и плохую мобильность" для пациента мужского пола превращаются в: "Миссис Смит - 84 лет, проживает сама. Несмотря на свои ограничения, она независима и способна ухаживать за собой".
Ситуация сложнее, чем может показаться на первый взгляд. Мы действительно видим изменение отношения ИИ к жалобам женщин. Также мы знаем об особенностях женского нейросенсорного восприятия, которое и легло в основу данных, на которых тренировалась нейросеть. Игнорировать жалобы женщин нельзя, но как определить действительно гиперболизированные жалобы и привести это к общему знаменателю? Ситуация тем сложнее в сферах, где невозможно точно определить четкие показатели с помощью лабораторных исследований, а в медицине много факторов, которые трудно привести к числовому вычислению.
Ситуация с представителями других рас и LGBTQ-сообщества еще хуже. Исследования показывают, что модели на основе компьютерного видения часто недооценивают патологии у уязвимых подгрупп - например, темнокожих женщин.
Понятно, что выдачу нейросетей можно "подправить", изменив настройки и входные данные для обучения. Но это тот случай, когда нужно глубокое понимание того, какие именно изменения необходимы. Исследование очень наглядно показывает, что качество выдачи нейросетей чрезвычайно сильно зависит от качества данных, на которых она тренировалась. Также важно понимать, что еще сильно рано полагаться на нейросеть, как на надежный источник информации о человеческом здоровье. Врач тоже может ошибаться, иметь половые или расовые предубеждения, но он по крайней мере несет ответственность за здоровье человека.