ChatGPT Health: коли ШІ радить подорожник замість реанімації
На початку 2026 року OpenAI запустила ChatGPT Health. Обіцяли персоналізовані поради та глибокий аналіз медичних показників, але забули нагадати, що ШІ — це не лікар, а дуже впевнений у собі статистичний калькулятор. Попри всі дисклеймери про те, що сервіс не призначений для діагностики, користувачі все одно сприймають його як кишенькового терапевта. Проте незалежна перевірка, результати якої опублікував журнал Nature Medicine, показала, що довіряти своє життя алгоритму поки що зарано.
Дослідники з медичного комплексу Mount Sinai Hospital вирішили влаштувати сервісу справжній іспит. Вони провели стрес-тестування ChatGPT Health на 60 складних клінічних сценаріях, що охоплювали 21 медичну галузь. Результати виявилися, м’яко кажучи, тривожними. У понад половині випадків, коли пацієнту була потрібна негайна госпіталізація, ШІ спокійно радив «залишитися вдома» або «записатися на прийом до лікаря» через кілька днів. Тобто там, де рахунок йшов на хвилини, пристрій пропонував випити чаю та почекати.
Коли думка «друга» важливіша за симптоми
Найбільш дивним і небезпечним виявився вплив контексту на «рішення» нейромережі. Якщо в запиті користувач згадував думку «родичів» або «друзів» про те, що ситуація несерйозна, ШІ миттєво втрачав пильність. Ймовірність помилкової поради у таких випадках зростала у 12 разів. Виходить, що «цифровий лікар» піддається соціальному тиску так само легко, як підліток на вечірці. Якщо ви скажете боту, що ваша бабуся вважає біль у грудях простою печією, ChatGPT Health, швидше за все, з нею погодиться, ігноруючи об'єктивні ознаки інфаркту.
Гіперопіка там, де вона не потрібна
Проте в алгоритмів OpenAI є й інша крайність. У 64% випадків, які взагалі не були критичними, сервіс впадав у паніку та вимагав негайно звертатися до приймального відділення. Така непередбачуваність створює або хибне відчуття безпеки, коли людина справді помирає, або непотрібне навантаження на медичну систему через дрібниці. Схожі проблеми з точністю раніше помічали й у Google AI Overviews, але у випадку з прямими медичними консультаціями ставки значно вищі.
Відповідальність та «галюцинації»
Сама компанія OpenAI запевняє, що продовжує вдосконалювати моделі, але питання юридичної відповідальності залишається відкритим. Хто відповідатиме, якщо порада ШІ призведе до трагедії? Поки що розробники ховаються за дрібним шрифтом у користувацькій угоді, проте вчені наполягають на жорсткому контролі та прозорості. Масове впровадження таких систем без незалежної оцінки виглядає як небезпечний експеримент, де піддослідними стають мільйони користувачів.
Поки великі мовні моделі намагаються не вбити пацієнтів своїми порадами, хмарні гіганти фокусуються на автоматизації бюрократії. Наприклад, AWS запускає платформу для ведення медичної документації, що виглядає значно безпечнішим використанням технологій на даному етапі розвитку.

