Pentagone « proche » de punir Anthropic AI en tant que « risque de chaîne d'approvisionnement » en raison des termes liés à l'utilisation militaire de Claude : rapport

(MENAFN- Live Mint) Un conflit croissant sur la manière dont l’intelligence artificielle doit être utilisée dans la guerre moderne pousse désormais le Pentagone à prendre une mesure extraordinaire : considérer une entreprise américaine de l’IA comme une menace pour la sécurité.

Le secrétaire à la Défense Pete Hegseth est « proche » de couper les liens commerciaux avec Anthropic et de désigner la société comme un « risque pour la chaîne d’approvisionnement », a déclaré un haut responsable du Pentagone à Axios — une décision qui pénaliserait non seulement Anthropic mais aussi tout contractant dépendant de sa technologie.

** Lire aussi | Le Pentagone « en a assez » d’Anthropic concernant la politique d’utilisation de Claude, pourrait couper les liens : rapport

Ce même responsable a décrit la décision potentielle à Axios de manière brutale : « Ce sera une énorme galère à démêler, et nous allons nous assurer qu’ils paient le prix de nous avoir forcés la main comme ça. »

Une punition habituellement réservée aux adversaires, maintenant dirigée contre une entreprise américaine d’IA

La menace de désignation du « risque pour la chaîne d’approvisionnement » pour Anthropic AI est rarement utilisée contre des entreprises nationales et est plus couramment associée à des entités liées à des puissances étrangères hostiles. L’appliquer à Anthropic représenterait une escalade nette dans la volonté de l’administration Trump d’assurer que les systèmes d’IA utilisés par l’armée soient disponibles sans conditions restrictives.

Cela enverrait également un signal clair au secteur technologique plus large : selon le Département de la Défense, les partenariats en matière de sécurité nationale exigent le respect des normes opérationnelles militaires — et non pas des lignes rouges éthiques tracées par des entreprises privées.

Le rôle unique de Claude dans les réseaux classifiés rend la confrontation particulièrement délicate

Le différend est compliqué par un fait opérationnel simple. Claude d’Anthropic est actuellement le seul modèle d’IA de pointe accessible dans les systèmes classifiés de l’armée américaine, donnant à l’entreprise une position stratégique que ses concurrents n’ont pas encore égalée.

Des responsables du Pentagone décrivent en privé Claude comme exceptionnellement efficace dans les flux de travail spécialisés du gouvernement. Mais la présence du système dans des réseaux sensibles a aussi accru la frustration au sein des cercles de défense, où des responsables soutiennent que les contraintes d’utilisation d’Anthropic sont incompatibles avec la réalité de la planification militaire.

Comme l’a rapporté Axios vendredi, Claude a été utilisé lors de l’opération contre Maduro en janvier — un détail qui illustre à quelle vitesse l’IA générative est passée de l’expérimentation à des opérations concrètes.

Le conflit central : le Pentagone doit-il accepter des garanties d’IA comme condition d’accès ?

Au cœur du conflit se trouve un différend philosophique et juridique : un développeur d’IA peut-il dicter l’utilisation de son modèle une fois qu’il est intégré dans les systèmes gouvernementaux ?

Anthropic, dirigée par le PDG Dario Amodei, a maintenu sa position en limitant certains usages. La société serait prête à assouplir ses conditions, mais souhaite des garanties que Claude ne sera pas utilisé pour permettre la surveillance de masse des Américains, ni pour aider à développer des armes pouvant tirer sans intervention humaine directe.

Les responsables du Pentagone soutiennent que de telles restrictions sont trop rigides pour être applicables. Ils argumentent que l’activité militaire moderne comporte d’innombrables scénarios ambigus, et que tenter de définir des limites dans un contrat pourrait contraindre des opérations légales de manière imprévisible.

Lors de négociations non seulement avec Anthropic mais aussi avec OpenAI, Google et xAI, les négociateurs du Pentagone ont insisté sur le droit d’utiliser les outils d’IA pour « tous les usages légaux ».

Le Pentagone présente cette revue comme une question de préparation à la guerre

Le langage public de l’administration est devenu de plus en plus combatif, présentant la question comme une question de préparation militaire plutôt que de gouvernance d’entreprise.

Le porte-parole en chef du Pentagone, Sean Parnell, a déclaré à Axios : « La relation du Département de la Guerre avec Anthropic est en cours de révision. Notre nation exige que nos partenaires soient prêts à aider nos combattants à gagner dans n’importe quel combat. En fin de compte, il s’agit de nos troupes et de la sécurité du peuple américain. »

Cette déclaration suggère que le Pentagone voit le différend non pas comme un désaccord technique, mais comme une question de savoir si une entreprise privée d’IA est prête à s’aligner pleinement sur les objectifs de défense.

Anthropic insiste sur le fait que les discussions restent constructives tout en défendant ses lignes rouges

Anthropic a tenté de se positionner comme coopérative, tout en affirmant que certaines restrictions sont nécessaires compte tenu du pouvoir des systèmes d’IA modernes.

Un porte-parole d’Anthropic a déclaré à Axios : « Nous menons des discussions productives, de bonne foi, avec le Département de la Guerre sur la manière de poursuivre ce travail et de bien gérer ces enjeux nouveaux et complexes. »

** Lire aussi | Anthropic lève 30 milliards de dollars : s’agit-il de la plus grande levée de fonds dans l’IA ?

Le porte-parole a également réitéré l’engagement de la société dans le domaine de la sécurité nationale, en soulignant que Claude a été le premier modèle d’IA déployé sur des réseaux classifiés — une affirmation devenue centrale dans la position d’Anthropic à Washington.

La question en arrière-plan : la loi sur la surveillance n’a pas été conçue pour l’IA générative

Le conflit met également en lumière un vide réglementaire. Les autorités américaines de surveillance existantes ont été conçues pour des époques antérieures de traitement des données, et non pour des systèmes d’IA capables d’extraire des motifs, de construire des profils et de générer des inférences à grande échelle.

** Lire aussi | Anthropic atteint une valorisation de 380 milliards de dollars en intensifiant la concurrence avec OpenAI

Le Pentagone dispose déjà du pouvoir de collecter de grandes quantités d’informations personnelles, allant de l’activité sur les réseaux sociaux aux permis de port d’armes dissimulées. Les critiques ont averti que l’IA pourrait amplifier ces capacités de manière à rendre la supervision plus difficile, tout en augmentant le risque que des civils soient ciblés par une analyse automatisée.

La position d’Anthropic reflète ces inquiétudes. Cependant, des responsables du Pentagone soutiennent que la légalité doit être la norme décisive — et que le Département de la Défense ne peut accepter des conditions contractuelles qui préjugent des missions légales.

Un effet d’entraînement majeur pour les contractants si Anthropic est mis sur liste noire

L’aspect le plus perturbateur de la menace de désignation de « risque pour la chaîne d’approvisionnement » n’est pas ce qu’elle ferait directement à Anthropic, mais ce qu’elle exigerait des autres.

** Lire aussi | Pourquoi Jio, Anthropic, Ericsson et d’autres ont formé l’Alliance de la Technologie de Confiance

Si elle était appliquée, cette mesure obligerait de nombreuses entreprises fournissant le Pentagone à certifier qu’elles n’utilisent pas Claude en interne. Étant donné la portée commerciale d’Anthropic — la société a déclaré que huit des 10 plus grandes entreprises américaines utilisent Claude — une telle exigence pourrait entraîner des audits internes massifs, un remplacement rapide des outils, et des efforts coûteux de conformité à travers le secteur privé.

Un contrat relativement modeste, mais un test politique et stratégique majeur

Le contrat du Pentagone en jeu est évalué à 200 millions de dollars. Par rapport aux 14 milliards de dollars de revenus annuels d’Anthropic, cette somme n’est pas vitale.

Cependant, des responsables proches du dossier affirment que le différend ne concerne pas fondamentalement l’argent. Il s’agit de l’autorité : si l’armée acceptera ou non les garanties d’IA fixées par des laboratoires privés, ou si ces laboratoires seront contraints d’accepter l’interprétation du Département de la Défense sur l’utilisation légale.

Le Pentagone pourrait avoir du mal à remplacer Claude malgré les affirmations selon lesquelles ses rivaux sont « juste derrière »

Une rupture soudaine pourrait également s’avérer opérationnellement gênante. Un haut responsable de l’administration a confié à Axios que les modèles concurrents « sont juste derrière » pour des applications gouvernementales spécialisées.

** Lire aussi | Musk lance une attaque virulente contre Anthropic alors que le créateur de Claude lève 30 milliards de dollars

Cet écart pourrait compliquer toute tentative de remplacement rapide de Claude, en particulier dans des environnements classifiés où les obstacles techniques et bureaucratiques pour de nouveaux systèmes sont élevés.

Le signal à la Silicon Valley : le Pentagone entend dicter ses conditions

L’approche ferme envers Anthropic semble conçue pour influencer les négociations avec d’autres développeurs d’IA.

Des responsables du Pentagone sont en négociation parallèle avec OpenAI, Google et xAI, qui ont tous accepté de supprimer les garanties pour une utilisation dans des systèmes militaires non classifiés. Mais aucun n’a encore atteint le niveau d’intégration de Claude dans les réseaux classifiés.

Un haut responsable de l’administration a déclaré que le Pentagone attend des autres entreprises qu’elles acceptent la norme « tous usages légaux ». Cependant, une source familière avec ces discussions a indiqué que beaucoup reste à décider.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский язык
  • Français
  • Deutsch
  • Português (Portugal)
  • ภาษาไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)