4 апреля федеральный апелляционный суд США в Вашингтоне отклонил ходатайство о приостановке исполнения, оставив в силе для Министерства обороны маркировку «риска цепочки поставок» для Anthropic, отказавшись удовлетворить ее ходатайство о приостановке исполнения. Эта судебная тяжба, связанная с юридическим спором о красных линиях в сфере этики ИИ и определении национальной безопасности, пока еще не поставила точку.
(Справка: судья поддержал Anthropic и запретил Министерству обороны наказывать Claude с помощью «ярлыка риска цепочки поставок»)
(Дополнение к фону: что такое Claude? Полный разбор — стоимость, функции, Claude Code, Cowork — самый подробный гайд по Anthropic на 2026 год)
Оглавление статьи
Переключить
4 апреля федеральный апелляционный суд США в Вашингтоне отклонил ходатайство о приостановке исполнения, поданное ИИ-корпорацией Anthropic, и постановил сохранить решение Министерства обороны о включении ее в категорию «риска цепочки поставок».
Аргументы суда были прямыми: государственные интересы в управлении цепочками поставок ИИ в сфере национальной безопасности имеют приоритет над финансовыми потерями, которые несет Anthropic. В прошлом эта маркировка обычно применялась к компаниям из враждебных стран или к потенциальным субъектам угроз; теперь же она легла на американского «единорога» в сфере ИИ — символический смысл очевиден.
События начались в июле 2025 года. Anthropic и Пентагон подписали контракт на 200 млн долларов, по которому модели ИИ Claude интегрируются в интеллектуальную систему Maven, чтобы помогать в выполнении задач разведывательного анализа и идентификации целей.
Однако переговоры между сторонами в сентябре 2025 года сорвались. Anthropic настаивала на установлении двух этических красных линий: отказе применять Claude во всецело автоматизированных системах вооружения и отказе использовать его для внутреннего наблюдения. Эти две позиции вступили в коренное противоречие с ожиданиями администрации Трампа; затем Трамп через социальные сети распорядился, чтобы федеральные структуры прекратили использование продуктов Anthropic, и установил 6-месячный переходный период вывода.
С конца 2025 года — в начале 2026 года Министерство обороны официально внесло Anthropic в список рисков цепочки поставок. Эта маркировка напрямую лишила Anthropic права участвовать в государственных оборонных контрактах.
На данный момент этот юридический спор имеет взаимоисключающие результаты судебных решений. Федеральный суд в Сан-Франциско в конце марта ранее одобрил предварительный запрет, позволяющий Anthropic продолжать сотрудничество с не относящимися к обороне государственными структурами; но решение 4 апреля апелляционного суда США в Вашингтоне усилило позицию Министерства обороны по запрету и отказало в предоставлении любой отсрочки.
Это означает, что Anthropic сейчас оказывается в неловкой правовой «вилке»: она может сотрудничать с частью государственных подразделений, но при этом оказывается исключена из оборонных контрактов. Anthropic заявляет, что считает этот случай политической местью и нарушением конституционных гарантий, и продолжит подавать апелляции. Ускорение процедур рассмотрения станет ключевым этапом.
Но, согласно сообщению Electronic Engineering Album, несмотря на то что в бизнесе Anthropic понесла серьезный удар и не может участвовать в масштабных оборонных контрактах, ее образ, основанный на принципиальной этической позиции, получил позитивный отклик на рынке рядовых пользователей. Это привлекло больше корпоративных и частных пользователей, которые обеспокоены вопросами безопасности ИИ.
Влияние этого решения выходит за рамки одной-единственной компании Anthropic. Оно раскрывает более глубокое структурное противоречие: когда этические рамки разработчиков ИИ вступают в конфликт с определением национальной безопасности со стороны правительства, весы действующей правовой системы сейчас, судя по всему, склоняются в какую сторону — и уже есть предварительный ответ. Финальное постановление по этому делу окажет далеко идущие последствия и послужит важным ориентиром для того, как весь технологический сектор будет согласовывать с правительством границы использования ИИ.