Anthropic vs. Пентагон: Битва за этику использования ИИ в военной индустрии

Автор: Павел Дорошенко, сегодня, 14:59

Когда разработчики искусственного интеллекта начинают спорить с военными об этике, это обычно заканчивается либо голливудским блокбастером о восстании машин, либо скучным судебным иском. В случае с Anthropic мы получили второй вариант, но с очень интересным подтекстом. Судья Рита Ф. Лин (Rita F. Lin) из Северного округа Калифорнии вынесла временный запрет на решение Пентагона исключить компанию из списка официальных поставщиков.

Когда принципы становятся "риском"

Конфликт разгорелся не на пустом месте. Министерство обороны США вдруг решило, что Anthropic — это "риск для цепи поставок". Звучит серьезно, не правда ли? Обычно такую метку вешают на компании, связанные с геополитическими противниками, но здесь ситуация более иронична. "Риском" компанию признали из-за ее публичной критики условий контрактов и отказа разрешить использование модели Claude для создания автономного оружия или систем массового наблюдения.

Судья Лин прямо намекнула, что действия Пентагона очень похожи на незаконную репрессию и нарушение Первой поправки. То есть военное ведомство просто решило "наказать" разработчиков за то, что те имеют собственное мнение и не боятся озвучивать его в медиа. Хотя вопрос использования ИИ в военной сфере — прерогатива военных, выходить за рамки закона ради мести им никто не позволял. Компания настаивает, что их технология не должна становиться инструментом для неконтролируемого насилия.

Меморандум Хегсета и "законное использование"

Катализатором стал меморандум министра обороны Пита Хегсета (Pete Hegseth). Он потребовал, чтобы в контрактах появилось формулирование о "любом законном использовании" технологий. Для Anthropic это стало красной линией. Компания настаивает, что их алгоритмы не предназначены для того, чтобы самостоятельно принимать решения о применении огня. Отказ подписаться под этим пунктом и привел к попытке выбросить их из игры.

Последствия для бизнеса оказались вполне ощутимыми. Статус "рискованного поставщика" — это черная метка, которая заставила многих партнеров нервничать. Потенциальные убытки уже оцениваются в сотни миллионов долларов (более 4.2 млрд грн). Пока идет судебное разбирательство, Anthropic сможет работать с партнерами, но окончательное решение ожидается только через несколько месяцев. Это прецедент, который заставляет задуматься: может ли частная компания диктовать условия правительству, когда речь идет о безопасности искусственного интеллекта, или государственная машина все равно переедет любого игрока?

Вопрос о том, как использовать ИИ, должен решаться военными, но действия Пентагона выходят за рамки закона.

На фоне этого конфликта конкуренты оказываются в эпицентре политических игр. Пока одни держатся за принципы, другие могут просто занять освобожденную нишу, соглашаясь на все условия заказчика. Судебное противостояние только начинается, и оно определит правила игры для всего рынка милитаризованного ИИ на годы вперед.

Кстати, пока одни разработчики пытаются ограничить использование ИИ в оружии, другие находят ему применение в фундаментальной науке. Например, интересно наблюдать, как ИИ MOLEXA собирает молекулы из обломков, превращая хаос в упорядоченную структуру.