Microsoft Copilot «випадково» читав ваші секрети: баг ігнорував захист даних

Автор: Петро Тітаренко | вчора, 20:57

Штучний інтелект обіцяв стати правою рукою офісного працівника, але, як це часто буває з продуктами Microsoft, на старті щось пішло не так. Компанія офіційно визнала, що її розумний помічник Copilot виявляв надмірну цікавість до електронної пошти користувачів, ігноруючи при цьому встановлені цифрові кордони. Виявилося, що алгоритми спокійно читали листи, які були позначені як конфіденційні та захищені внутрішніми політиками безпеки.

Розумний помічник виявився надто допитливим. Фото: Bleeping Computer

Коли мітка «Конфіденційно» — це лише текст

Проблема виникла у вкладці «Робота» чату Microsoft 365 Copilot. Цей інструмент створений для того, щоб аналізувати корпоративні дані, підсумовувати довгі ланцюжки листування та допомагати в підготовці звітів. Проте користувачі помітили дивну поведінку: ШІ почав створювати резюме листів, до яких він технічно не повинен був мати доступу. Навіть якщо до повідомлення була застосована мітка конфіденційності або активована політика захисту від витоку даних (DLP), Copilot просто ігнорував ці налаштування.

За інформацією видання Bleeping Computer, ситуація виглядає особливо тривожно для корпоративного сектору. Уявіть, що фінансовий звіт з обмеженим доступом або деталі конфіденційної угоди раптом стають частиною загального резюме, яке бачить співробітник без відповідних прав доступу. Це прямо суперечить ідеї безпечного корпоративного середовища, яку Microsoft так активно просуває.

Технічний збій чи недогляд?

У Редмонді пояснили таку поведінку банальною помилкою в коді. Виявилося, що механізм обробки даних у Microsoft 365 Copilot некоректно інтерпретував метадані захисту листів. Система бачила зміст, але «забувала» перевірити права на його обробку штучним інтелектом. Це вкотре нагадує нам, що довіряти алгоритмам критично важливу інформацію — це завжди ризик, особливо коли йдеться про інтеграцію ШІ на рівні операційної системи.

Для захисту даних компанії зазвичай використовують Microsoft Purview DLP. Це комплексне рішення, яке має блокувати будь-які спроби несанкціонованого копіювання або аналізу чутливої інформації. Те, що Copilot зміг обійти цей захист, вказує на серйозні прогалини в архітектурі взаємодії між хмарними сервісами та локальними інструментами Windows 11.

Виправлення вже в дорозі

Microsoft запевняє, що проблему вже вирішено. Відповідне оновлення коду поступово розгортається серед користувачів. Тепер Copilot має знову почати поважати мітки конфіденційності та не пхати свого «носа» у листи, які його не стосуються. Проте осад, як то кажуть, залишився. Компаніям, які вже впровадили ШІ у свої робочі процеси, варто ще раз перевірити налаштування доступу та переконатися, що їхні секрети не стали частиною наступного тренування мовної моделі.

Поки Microsoft латає дірки в безпеці, інші гравці ринку шукають способи монетизувати ШІ-бум будь-якою ціною. Наприклад, компанія Lenovo піднімає ціни на свої пристрої, впроваджуючи своєрідний «податок» на штучний інтелект для ноутбуків.