9 квітня 2026 року Федеральний апеляційний суд у Вашингтоні (округ Колумбія) постановив залишити в силі рішення Міністерства оборони щодо позначення Anthropic як такого, що має «ризики для ланцюга постачання», відхиливши його клопотання про призупинення виконання. Ця юридична війна довкола етичних «червоних ліній» у сфері ШІ та визначення питань національної безпеки досі не завершена.
(Передісторія: судді стали на бік Anthropic і заборонили Міністерству оборони карати Claude за «ризиками для ланцюга постачання».)
(Довідка: що таке Claude? Повний розбір — вартість, функції, Claude Code, Cowork — найдетальніший гайд від Anthropic на 2026 рік)
Зміст статті
Toggle
9 квітня 2026 року Федеральний апеляційний суд у Вашингтоні (округ Колумбія) відхилив клопотання провідного гравця в AI Anthropic про призупинення виконання, ухваливши рішення зберегти постанову Міністерства оборони про те, що компанія є «ризиком для ланцюга постачання».
Аргументація суду була прямою: державні інтереси національної безпеки в управлінні ланцюгами постачання у сфері AI переважають фінансові збитки, яких зазнає Anthropic. Це маркування в минулому зазвичай застосовували до компаній із ворожих держав або до потенційно загрозливих суб’єктів, тож те, що тепер воно дісталося американській «єдиноріжковій» AI-компанії на власній території, має промовисте символічне значення.
Історія події бере початок у липні 2025 року. Anthropic уклала з Пентагоном контракт на 200 мільйонів доларів, у межах якого AI-моделі Claude інтегрують у систему Maven, щоб допомагати виконувати завдання з аналітики розвідданих і розпізнавання цілей.
Втім, переговори між сторонами зірвалися у вересні 2025 року. Anthropic наполягала на встановленні двох етичних «червоних ліній»: відмовитися використовувати Claude для повністю автоматизованих систем озброєння, а також відмовитися використовувати його для внутрішнього нагляду. Ці дві позиції радикально суперечили очікуванням адміністрації Трампа; згодом Трамп через соціальні мережі наказав федеральним установам припинити використання продуктів Anthropic та встановив 6-місячний період поступового виведення з експлуатації.
Наприкінці 2025 року — на початку 2026 року Міністерство оборони офіційно внесло Anthropic до списку «ризиків для ланцюга постачання». Це позначення безпосередньо перекрило Anthropic можливість брати участь у державних оборонних контрактах.
Наразі ця юридична війна має взаємосуперечливі результати. Наприкінці березня федеральний суд у Сан-Франциско вже ухвалив попередню заборону, дозволивши Anthropic продовжувати співпрацю з невоєнними урядовими структурами; однак рішення від 9 квітня 2026 року Федерального апеляційного суду у Вашингтоні (округ Колумбія) посилило позицію Міністерства оборони щодо фактичної заборони та відмовило в наданні будь-якого «вікна» для призупинення.
Це означає, що Anthropic нині опинилася в незручній юридичній «вилці»: вона може співпрацювати з деякими державними органами, але їй відмовлено у доступі до оборонних контрактів. Anthropic заявляє, що ця справа є політичним переслідуванням і порушує конституційні гарантії, тому компанія й надалі подаватиме апеляції. Прискорення судового розгляду стане ключовим кроком на наступному етапі.
Проте, за даними Electric Engineering Album (Електронний інженерний вісник), попри те що Anthropic зазнала серйозного удару в бізнесі та не може брати участь у масштабних оборонних контрактах, її наполегливість у відстоюванні етичної позиції натомість отримала позитивний відгук на ринку звичайних користувачів. Це приваблює більше компаній і приватних користувачів, які мають занепокоєння щодо безпеки AI.
Вплив цього рішення виходить далеко за межі однієї компанії Anthropic. Воно висвітлює глибшу структурну суперечність: коли етичні рамки розробників AI конфліктують із урядовими визначеннями національної безпеки, терези чинної правової системи наразі схиляються в який бік — і це вже має попередню відповідь. Остаточне рішення у цій справі стане важливим орієнтиром того, як загалом технологічна індустрія погоджуватиме з урядом межі використання AI, і матиме далекосяжне значення.