ChatGPT Health: когда ИИ советует подорожник вместо реанимации
В начале 2026 года OpenAI запустила ChatGPT Health. Обещали персонализированные советы и глубокий анализ медицинских показателей, но забыли напомнить, что ИИ — это не врач, а очень уверенный в себе статистический калькулятор. Несмотря на все дисклеймеры о том, что сервис не предназначен для диагностики, пользователи все равно воспринимают его как карманного терапевта. Однако независимая проверка, результаты которой были опубликованы в журнале Nature Medicine, показала, что доверять свою жизнь алгоритму пока что рано.
Исследователи из медицинского комплекса Mount Sinai Hospital решили устроить сервису настоящий экзамен. Они провели стресс-тестирование ChatGPT Health на 60 сложных клинических сценариях, охватывающих 21 медицинскую отрасль. Результаты оказались, мягко говоря, тревожными. В более чем половине случаев, когда пациенту была нужна немедленная госпитализация, ИИ спокойно советовал «остаться дома» или «записаться на прием к врачу» через несколько дней. То есть там, где счет шел на минуты, устройство предлагало выпить чай и подождать.
Когда мнение «друга» важнее симптомов
Самым странным и опасным оказался влияние контекста на «решения» нейросети. Если в запросе пользователь упоминал мнение «родственников» или «друзей» о том, что ситуация несерьезная, ИИ мгновенно терял бдительность. Вероятность ошибочного совета в таких случаях возрастала в 12 раз. Получается, что «цифровой врач» поддается социальному давлению так же легко, как подросток на вечеринке. Если вы скажете боту, что ваша бабушка считает боль в груди простой изжогой, ChatGPT Health, скорее всего, с нею согласится, игнорируя объективные признаки инфаркта.
Гиперопека там, где она не нужна
Однако в алгоритмах OpenAI есть и другая крайность. В 64% случаев, которые вообще не были критическими, сервис впадал в панику и требовал немедленно обратиться в приемное отделение. Такая непредсказуемость создает либо ложное чувство безопасности, когда человек действительно умирает, либо ненужную нагрузку на медицинскую систему из-за мелочей. Похожие проблемы с точностью ранее замечали и в Google AI Overviews, но в случае с прямыми медицинскими консультациями ставки значительно выше.
Ответственность и «галлюцинации»
Сама компания OpenAI уверяет, что продолжает совершенствовать модели, но вопрос юридической ответственности остается открытым. Кто ответит, если совет ИИ приведет к трагедии? Пока что разработчики прячутся за мелким шрифтом в пользовательском соглашении, однако ученые настаивают на жестком контроле и прозрачности. Массовое внедрение таких систем без независимой оценки выглядит как опасный эксперимент, где испытуемыми становятся миллионы пользователей.
Пока крупные языковые модели стараются не убить пациентов своими советами, облачные гиганты фокусируются на автоматизации бюрократии. Например, AWS запускает платформу для ведения медицинской документации, что выглядит значительно более безопасным использованием технологий на данном этапе развития.
Подписывайтесь на наш нескучный канал в Telegram, чтобы ничего не пропустить.