Ein Bundesrichter hat das Pentagon daran gehindert, Anthropic als Risiko für die Lieferkette zu kennzeichnen, und entschied am Donnerstag, dass die Kampagne der Regierung gegen das KI-Unternehmen seine First Amendment- und Rechte auf ein faires Verfahren verletzt. U.S. District Judge Rita Lin erließ eine einstweilige Verfügung vom Northern District of California zwei Tage nach den mündlichen Argumenten beider Seiten, in einem Fall, den Beobachter als unvermeidlich aufgrund der eigenen Unterlagen der Regierung ansehen. “Es gibt nichts im geltenden Gesetz, das die orwellianische Vorstellung unterstützt, dass ein amerikanisches Unternehmen als potenzieller Gegner und Saboteur der USA gebrandmarkt werden kann, weil es mit der Regierung nicht einverstanden ist”, schrieb Richterin Lin.
Das interne Protokoll war nach Angaben von Andrew Rossow, Anwalt für Öffentlichkeitsarbeit und CEO von AR Media Consulting, fatal für den Fall der Regierung, der Decrypt mitteilte, dass die Bezeichnung “durch das Verhalten der Presse ausgelöst wurde, nicht durch eine Sicherheitsanalyse.” “Die Regierung hat im Wesentlichen ihre eigene Motivation niedergeschrieben, und es war Rache”, sagte Rossow. Der Streit dreht sich um einen zweijährigen, 200 Millionen Dollar schweren Vertrag, der Anthropic im Juli 2025 vom Chief Digital and Artificial Intelligence Office des Kriegsministeriums zugesprochen wurde.
Die Verhandlungen zur Bereitstellung von Claude auf der GenAI.Mil-Plattform des Ministeriums scheiterten, nachdem sich beide Seiten nicht auf Nutzungsbeschränkungen einigen konnten. Anthropic bestand auf zwei Bedingungen: dass Claude nicht für die Massenüberwachung von Amerikanern oder für den lethalen Einsatz in autonomer Kriegsführung verwendet wird, da das Modell für keinen dieser Zwecke sicher genug sei. Bei einem Treffen am 24. Februar sagte Kriegsminister Pete Hegseth den Vertretern von Anthropic, dass das Ministerium, wenn das Unternehmen seine Einschränkungen bis zum 27. Februar nicht aufhebt, es sofort als Risiko für die Lieferkette kennzeichnen würde. Anthropic weigerte sich, nachzugeben. Am selben Tag veröffentlichte Präsident Trump eine Anordnung auf Truth Social, in der er jede Bundesbehörde aufforderte, die Technologie des Unternehmens “sofort einzustellen” und Anthropic als “radikal links, woke Unternehmen” bezeichnete. Etwas mehr als eine Stunde später beschrieb Hegseth die Haltung von Anthropic als “eine Meisterklasse in Arroganz und Verrat” und ordnete an, dass kein Auftragnehmer, der mit dem Militär Geschäfte macht, kommerzielle Aktivitäten mit der Firma durchführen darf. Die offizielle Bezeichnung als Risiko für die Lieferkette folgte durch einen Brief am 3. März. Anthropic verklagte die Regierung am 9. März und warf ihr Verstöße gegen die First Amendment, das Recht auf ein faires Verfahren und das Verwaltungsverfahrensgesetz vor. “Anthropic zu bestrafen, weil es öffentliche Aufmerksamkeit auf die Vertragsposition der Regierung lenkt, ist klassische illegale Vergeltung gemäß dem First Amendment”, schrieb Richterin Lin in der Anordnung vom Donnerstag.
Die Anordnung, die für sieben Tage ausgesetzt wurde, blockiert alle drei Maßnahmen der Regierung, verlangt einen Compliance-Bericht bis zum 6. April und stellt den Status quo vor den Ereignissen des 27. Februar wieder her. Waffe im rechtlichen Sinne Die Bezeichnung als “Risiko für die Lieferkette” war historisch gesehen ausländischen Geheimdiensten, Terroristen und anderen feindlichen Akteuren vorbehalten. Sie war zuvor nie auf ein inländisches Unternehmen angewendet worden, bevor es Anthropic gab. Verteidigungsauftragnehmer begannen in den Wochen nach der Anordnung von Richterin Lin, ihre Abhängigkeit von Anthropic zu bewerten und in vielen Fällen zu beenden, wie die Anordnung feststellte. Und die Haltung der Regierung könnte unvorhergesehene Konsequenzen haben, argumentieren Experten. In der Tat könnte das Urteil vom Donnerstag die KI-Unternehmen “dazu drängen, ethische Leitplanken bei der Zusammenarbeit mit Regierungen zu formalisieren”, sagte Pichapen Prateepavanich, Politikstrategin und Gründerin des Infrastrukturunternehmens Gather Beyond, gegenüber Decrypt. In gewissem Maße deutet das Urteil auch darauf hin, dass Unternehmen “klare Nutzungsgrenzen setzen können, ohne automatisch vergeltende regulatorische Maßnahmen auszulösen”, fügte sie hinzu. Aber dies “beseitigt nicht die Spannung”, fügte sie hinzu. Was das Urteil einschränkt, ist “die Fähigkeit, diese Meinungsverschiedenheit in eine breitere Exklusion oder Kennzeichnung zu eskalieren, die nach Vergeltung aussieht.” Dennoch ist die Anwendung der aktuellen gesetzlichen Befugnisse zur Bezeichnung eines Unternehmens als Risiko für die Lieferkette “weil es sich weigerte, Sicherheitsleitplanken zu entfernen” keine Ausweitung des Statuts zum Risiko für die Lieferkette, erklärte Rossow. Vielmehr fungiert es als eine “Waffe der Gesetzgebung”.
“Dies ist Teil eines fortlaufenden Verhaltensmusters des Weißen Hauses, wann immer sie herausgefordert werden, was zu unverhältnismäßigen, emotional getriebenen und voreingenommenen Drohungen und staatlicher Erpressung führt”, fügte er hinzu. Wenn die “Theorie” der Regierung akzeptiert wird, würde dies einen “gefährlichen” Präzedenzfall schaffen, bei dem KI-Unternehmen aufgrund von Sicherheitsrichtlinien, die der Regierung nicht gefallen, “schwarzgelistet” werden können, “bevor irgendein Schaden eintritt”, ohne ein faires Verfahren, unter dem Banner der nationalen Sicherheit, sagte Rossow.