Anthropic vs. Пентагон: Битва за етику використання ШІ у військовій індустрії
Коли розробники штучного інтелекту починають сперечатися з військовими про етику, зазвичай це закінчується або голлівудським блокбастером про повстання машин, або нудним судовим позовом. У випадку з Anthropic ми отримали другий варіант, але з дуже цікавим підтекстом. Суддя Рита Ф. Лин (Rita F. Lin) з Північного округу Каліфорнії винесла тимчасову заборону на рішення Пентагону виключити компанію зі списку офіційних постачальників.
Коли принципи стають «ризиком»
Конфлікт розгорівся не на порожньому місці. Міністерство оборони США раптом вирішило, що Anthropic — це «ризик для ланцюга постачань». Звучить серйозно, чи не так? Зазвичай такий ярлик вішають на компанії, пов’язані з геополітичними противниками, але тут ситуація іронічніша. «Ризиком» компанію визнали через її публічну критику умов контрактів та відмову дозволити використання моделі Claude для створення автономної зброї чи систем масового стеження.
Суддя Лин прямо натякнула, що дії Пентагону дуже схожі на незаконну репресію та порушення Першої поправки. Тобто військове відомство просто вирішило «покарати» розробників за те, що ті мають власну думку та не бояться озвучувати її в медіа. Хоча питання використання ШІ у військовій сфері — прерогатива військових, виходити за межі закону заради помсти їм ніхто не дозволяв. Компанія наполягає, що їхня технологія не повинна ставати інструментом для неконтрольованого насильства.
Меморандум Хегсета та «законне використання»
Каталізатором став меморандум міністра оборони Пита Хегсета (Pete Hegseth). Він зажадав, щоб у контрактах з’явилося формулювання про «будь-яке законне використання» технологій. Для Anthropic це стало червоною лінією. Компанія наполягає, що їхні алгоритми не призначені для того, щоб самостійно приймати рішення про вогонь на ураження. Відмова підписатися під цим пунктом і призвела до спроби викинути їх з гри.
Наслідки для бізнесу виявилися цілком відчутними. Статус «ризикованого постачальника» — це чорна мітка, яка змусила багатьох партнерів занервувати. Потенційні збитки вже оцінюють у сотні мільйонів доларів (понад 4.2 млрд грн). Поки триває судовий розгляд, Anthropic зможе працювати з партнерами, але остаточне рішення очікується лише за кілька місяців. Це прецедент, який змушує замислитися: чи може приватна компанія диктувати умови уряду, коли йдеться про безпеку штучного інтелекту, чи державна машина все одно переїде будь-якого гравця?
Питання про те, як використовувати ШІ, має вирішуватися військовими, але дії Пентагона виходять за рамки закону.
На тлі цього конфлікту конкуренти опиняються в епіцентрі політичних ігор. Поки одні тримаються за принципи, інші можуть просто зайняти звільнену нішу, погоджуючись на всі умови замовника. Судове протистояння лише починається, і воно визначить правила гри для всього ринку мілітарного ШІ на роки вперед.
До речі, поки одні розробники намагаються обмежити використання ШІ у зброї, інші знаходять йому застосування у фундаментальній науці. Наприклад, цікаво спостерігати, як ШІ MOLEXA збирає молекули з уламків, перетворюючи хаос на впорядковану структуру.

