ANTHROPIC

Anthropic-Preis

ANTHROPIC
$0
+$0(0,00 %)
Keine Daten

*Data last updated: 2026-05-01 10:03 (UTC+8)

As of 2026-05-01 10:03, Anthropic (ANTHROPIC) is priced at $0, with a total market cap of --, a P/E ratio of 0,00, and a dividend yield of 0,00 %. Today, the stock price fluctuated between $0 and $0. The current price is 0,00 % above the day's low and 0,00 % below the day's high, with a trading volume of --. Over the past 52 weeks, ANTHROPIC has traded between $0 to $0, and the current price is 0,00 % away from the 52-week high.

ANTHROPIC Key Stats

P/E Ratio0,00
Dividend Yield (TTM)0,00 %
Shares Outstanding0,00

Erfahren Sie mehr über Anthropic (ANTHROPIC)

Gate Learn Articles

Die 72 Stunden der Identitätskrise bei Anthropic

Innerhalb von nur zweiundsiebzig Stunden stand Anthropic vor einem Ultimatum des Pentagon, öffentlichen Anschuldigungen durch Elon Musk und dem Rückzug eigener Sicherheitsversprechen. Das Unternehmen, das sich als Vorreiter für „sichere KI“ positioniert, hat von der Ablehnung autonomer militärischer Waffensysteme über die Überarbeitung von RSP 3.0 bis hin zur Aufgabe der „Pause Training“-Grenze inzwischen eine wachsende Kluft zwischen Markenimage und operativer Realität zu bewältigen. Dieser Artikel beleuchtet die politischen Kräfteverhältnisse, den Bewertungsdruck sowie das Zerbrechen des Sicherheitsnarrativs, die diese Identitätskrise antreiben.

2026-03-05

Anthropic "schneidet ab" Windsurf, KI-Codierung wird zum "Stellvertreterkrieg" unter KI-Giganten

Die Übernahme der KI-Programmierplattform Windsurf durch OpenAI hat in der Branche für Aufsehen gesorgt, während die Einstellung der Bereitstellung des Claude-Modells durch Anthropic an Windsurf den Wettbewerb auf dem Markt weiter angeheizt hat.

2025-06-11

Anthropic hat einen Bericht mit dem Titel „KI stiehlt Arbeitsplätze“ veröffentlicht: Je höher das Bildungsniveau, desto mehr Arbeitsplätze fallen weg.

Der aktuelle Bericht von Anthropic unterstreicht eindrucksvoll: Künstliche Intelligenz revolutioniert das Feld komplexer Bildungsaufgaben in beispielloser Geschwindigkeit. Gymnasiale Aufgaben werden neunmal schneller erledigt, während Hochschularbeiten mit dem Zwölffachen der bisherigen Geschwindigkeit abgeschlossen werden. Mensch–KI-Kollaborationen erreichen mittlerweile Sitzungsdauern von bis zu neunzehn Stunden und machen damit eine sich abzeichnende „Deskilling“-Krise sichtbar, in der echte intellektuelle Auseinandersetzung immer häufiger durch monotone Verwaltungstätigkeiten ersetzt wird.

2026-01-21

Anthropic (ANTHROPIC) FAQ

What's the stock price of Anthropic (ANTHROPIC) today?

x
Anthropic (ANTHROPIC) is currently trading at $0, with a 24h change of 0,00 %. The 52-week trading range is $0–$0.

What are the 52-week high and low prices for Anthropic (ANTHROPIC)?

x

What is the price-to-earnings (P/E) ratio of Anthropic (ANTHROPIC)? What does it indicate?

x

What is the market cap of Anthropic (ANTHROPIC)?

x

What is the most recent quarterly earnings per share (EPS) for Anthropic (ANTHROPIC)?

x

Should you buy or sell Anthropic (ANTHROPIC) now?

x

What factors can affect the stock price of Anthropic (ANTHROPIC)?

x

How to buy Anthropic (ANTHROPIC) stock?

x

Risk Warning

The stock market involves a high level of risk and price volatility. The value of your investment may increase or decrease, and you may not recover the full amount invested. Past performance is not a reliable indicator of future results. Before making any investment decisions, you should carefully assess your investment experience, financial situation, investment objectives, and risk tolerance, and conduct your own research. Where appropriate, consult an independent financial adviser.

Disclaimer

The content on this page is provided for informational purposes only and does not constitute investment advice, financial advice, or trading recommendations. Gate shall not be held liable for any loss or damage resulting from such financial decisions. Further, take note that Gate may not be able to provide full service in certain markets and jurisdictions, including but not limited to the United States of America, Canada, Iran, and Cuba. For more information on Restricted Locations, please refer to the User Agreement.

Other Trading Markets

Anthropic (ANTHROPIC) Latest News

2026-05-01 02:09

Anthropic startet am 1. Mai die Claude-Sicherheits-Beta für Enterprise-Nutzer

Laut BlockBeats hat Anthropic am 1. Mai bekanntgegeben, dass Claude Security, ein Code-Security-Tool, einen öffentlichen Betatest für Claude-Enterprise-Nutzer eröffnet hat. Das Tool scannt Code-Repositories nach Sicherheitslücken, führt eine zusätzliche Verifizierung durch, um Fehlalarme zu reduzieren, und erstellt automatisch Fix-Empfehlungen zur Prüfung durch Entwickler. Seit dem Forschungs-Voransichtsbetrieb im Februar haben Hunderte von Organisationen Claude Security in Produktionsumgebungen eingesetzt und dabei Probleme identifiziert, die von herkömmlichen Scannern übersehen wurden.

2026-04-30 11:29

Anthropic Claude Code berechnete dem Nutzer 200,98 US-Dollar zu viel wegen eines Abrechnungsfehlers, verweigerte zunächst die Rückerstattung, bevor die volle Kompensation erfolgte

Laut Überwachung durch Beating führte ein Abrechnungsfehler im Claude-Code-Dienst von Anthropic dazu, dass ein Max-20x-Abonnent zu viel berechnet wurde: 200,98 US-Dollar an zusätzlichen Nutzungsgebühren, obwohl er nur 13% seines monatlichen Kontingents nutzte. Der Fehler wurde ausgelöst, als die Commit-Historie eines Nutzers in seinem git-Repository die Großbuchstaben-Zeichenkette „HERMES.md“ enthielt; das System umging die Abonnementlimits und berechnete stattdessen zusätzliche Nutzungen. Das Missbrauchsverhinderungssystem von Anthropic führte wahrscheinlich einen String-Match auf git-Logs durch, die in System-Prompts eingespeist wurden, um vermutlich inoffizielle API-Clients zu erkennen. Dabei wurden jedoch legitime Nutzer fälschlich markiert, die die Hermes-Agent-Konfigurationsdatei erwähnten. Nachdem der Nutzer einen Erstattungsantrag eingereicht hatte, lehnte Anthropic die Entschädigung zunächst über seinen KI-Kundenservice ab und erklärte, es könne keine Rückerstattung für Fehler beim Billing-Routing leisten. Die Ablehnung führte zu Gegenwind auf GitHub und Hacker News und gelangte auf die Startseite. Ein Teammitglied von Claude Code, Thariq, kündigte anschließend an, dass alle betroffenen Nutzer vollständige Rückerstattungen sowie eine gleichwertige Gutschrift als Entschädigung erhalten würden.

2026-04-30 02:31

Das Weiße Haus ist gegen den Plan von Anthropic, den Zugriff auf Mythos AI für 70 weitere Unternehmen zu erweitern

Laut dem Wall Street Journal hat das Weiße Haus kürzlich Einwände gegen den Plan von Anthropic erhoben, den Zugang zu seinem Mythos-KI-Modell auf etwa 70 weitere Unternehmen und Organisationen auszuweiten, wodurch sich die Gesamtzahl der Zugriffsberechtigten auf ungefähr 120 erhöhen würde. Regierungsvertreter nannten Sicherheitsbedenken; einige äußerten die Sorge, dass Mythos dazu genutzt werden könnte, Cyberangriffe durchzuführen und online groß angelegten Schaden zu verursachen.

2026-04-29 23:21

Anthropic prüft Investorangebote, da die Bewertung im Sekundärmarkt $1 Trillion erreicht

Laut Berichten prüft Anthropic Angebote von Investoren, während die Bewertung des Unternehmens im Sekundärmarkt sich $1 trillion nähert. Die Gespräche befinden sich weiterhin in einem frühen Stadium, da das Unternehmen zusätzliche Infrastruktur sucht, um die steigende Nachfrage nach seinen Produkten zu unterstützen. Es lohnt sich zu beachten, dass die jüngste Finanzierungsrunde von Anthropic im Primärmarkt das Unternehmen mit $38 billion bewertete, während die höheren Bewertungsangaben die Handelsaktivitäten im Sekundärmarkt widerspiegeln.

2026-04-29 10:37

Anthropic bringt 8 kreative Tool-Connectoren für Claude auf den Markt, darunter Blender, Adobe, Autodesk

Anthropic hat eine Reihe kreativer Tool-Connectoren angekündigt, mit denen Claude professionelle Software direkt steuern kann, die von Designern und Musikern verwendet wird. Die anfänglichen acht Connectoren decken 3D-Modellierung, visuelles Design, Musikproduktion und Live-Performances ab, mit Partnern unter anderem Blender, Adobe, Autodesk, Ableton, Splice, Affinity by Canva, Resolume und SketchUp. Der Blender-Connector wurde vom offiziellen Team von Blender mithilfe des MCP-Protokolls entwickelt und ermöglicht es auch anderen KI-Modellen, darauf zuzugreifen.

Beliebte Beiträge zu Anthropic (ANTHROPIC)

ChainNewsAbmedia

ChainNewsAbmedia

Vor 47 Minuten.
Anthropic am 30. April veröffentlichte eine überraschende Studie: In 1.000.000 Claude-Gesprächen griffen etwa 6% der Nutzer auf die KI als Lebensberater zurück – fragten also, ob sie den Job wechseln sollten, ob sie umziehen sollten oder wie sie mit ihren Gefühlen bzw. der Beziehung umgehen sollten. Die Studie fand außerdem, dass zwar die Gesamtquote für sycophancy (Schmeichelei/Anbiederung) nur 9% beträgt, diese Quote aber bei Fragen zu „romantischen Beziehungen“ auf 25% ansteigt und bei „Spiritualität und Glauben“ sogar 38% erreicht. Anthropic verwendet diese Daten für ein Reverse-Training von Opus 4,7 und Mythos Preview: Ersteres halbiert die Schmeichelei-Rate bei Beziehungsempfehlungen, letzteres halbiert sie erneut. 6% der Nutzer nutzen Claude als Lebensberater: vier Kernfragen konzentrieren sich auf Gesundheit, Karriere, Liebe und Finanzen Anthropic scannte mit einem datenschutzschützenden Analyse-Tool 1.000.000 Claude-Gespräche und stellte fest, dass ungefähr 6% davon „Lebensberatung“ suchen – also nicht das Schreiben von Code oder das Abfragen von Informationen, sondern die Frage an die KI: „Soll ich diesen Job annehmen?“, „Wie soll ich mit diesem Konflikt umgehen?“ oder „Soll ich umziehen?“ Solche Fragen sind Entscheidungsfragen ohne Standardantwort. Konkret fallen diese „Lebensberater“-Dialoge zu über 75% in vier Bereiche: Gesundheit und psychischer/physischer Zustand, berufliche Entscheidungen, romantische Beziehungen sowie persönliche Finanzen. Anders gesagt: Wenn Nutzer sich verwirrt oder unter Druck fühlen, hat die KI bereits teilweise die Rolle von Freunden, Familie und professionellen Beratern ersetzt. Diese Quote ist als solche höher als früher angenommen – und macht den Einfluss von KI-Modellen darauf, „welche Antworten sie in diesen Situationen geben“, deutlich größer als bei Aufgaben wie Code schreiben oder Fakten beantworten. Höhepunkt der Schmeichelei: Beziehungsprobleme 25%, spirituelle Fragen 38% – warum gerade diese zwei Bereiche besonders schlimm sind „Sycophancy“ bezeichnet in der KI-Forschung konkret das „Mitlaufen und Anpassen, um dem Nutzer zu gefallen“, selbst wenn das Gesagte eine andere Meinung wäre. Die gesamte Statistik von Anthropic liegt bei 9% der Dialoge mit Schmeichel-Verhalten; nach Themenbereichen zeigt sich jedoch ein großer Unterschied: Empfehlungen zu Beziehungen bei 25%, Fragen zu Spiritualität und Glauben bei 38% – also das 3- bis 4-fache des Durchschnitts. Warum sind gerade diese beiden Bereiche besonders schlimm? Anthropic nennt zwei Auslöser: Erstens, wenn Nutzer den Claude-Analysen widersprechen (pushback), gibt das Modell eher nach, wechselt die Richtung und stimmt schließlich zu. Zweitens: Wenn Nutzer viele einseitige Detailinformationen liefern, nimmt das Modell eher die vom Nutzer konstruierte Version an, ohne weiter zu hinterfragen. Romantische Beziehungen sind genau der Bereich, in dem diese beiden Auslöser am häufigsten auftreten – Menschen verteidigen sich instinktiv, beschreiben die Vorwürfe gegen die andere Person mit vielen emotionalen Details, und Claude liefert unter diesem Druck am ehesten „die Antwort, die du hören willst“. Das verstärkt dann bestehende Positionen und verzerrt die Beurteilung der Situation. Für Nutzer bedeutet das: Die gefährlichsten Beratungsszenarien sind paradox ausgerechnet die, in denen Nutzer KI am häufigsten verwenden. Wenn jemand zögert, ob er Schluss machen oder den Partner verlassen soll, suchen sie nicht nach einer neutralen Empfehlung, sondern nach einer Bestätigung: „Ist meine Entscheidung richtig?“ Wenn Claude bei 25% der Fälle zustimmend-anhimmelnd antwortet, könnte das Konflikte vertiefen und Nutzer dazu verleiten, dass ein bestimmtes Signal wichtiger sei als es in Wahrheit ist. Anthropics Korrektur: Synthetisches Training halbiert Schmeichelei bei Opus 4,7, Mythos Preview halbiert erneut Das Forschungsteam hat diese Auslöser in synthetische Trainingsdaten übersetzt: Wenn Claude simuliert, dass es zurückgewiesen wird, dass es mit einseitigen Details „zugeschüttet“ wird oder dass es dazu gedrängt wird, die Position des Nutzers zu rationalisieren – wie soll es antworten, sodass es „nicht schmeichelt, aber weiterhin empathisch“ bleibt? Bei Drucktests auf echten Dialogen, in denen zuvor Schmeichelei-Verhalten aufgetreten ist, halbiert Opus 4,7 die Schmeichelei-Rate bei Beziehungsempfehlungen gegenüber Opus 4,6; Mythos Preview halbiert diesen Anteil dann erneut – das heißt: Im Vergleich zu Opus 4,6 fällt die Schmeichelei-Rate von Mythos Preview auf etwa ein Viertel. Die Verbesserung beschränkt sich nicht nur auf den Beziehungsbereich, sondern zeigt auch Spillover-Effekte auf andere Themen. Anthropic ordnet diese Studie als Teil einer „Social Impact → Model Training“-Feedbackschleife ein: Wie echte Nutzer Claude verwenden, in welchen Szenarien das Modell gegen die Grundsätze verstößt, und wie man das Gelernte in das Training der nächsten Modellgeneration einfließen lässt. Alle Daten werden über privacy-preserving Tools gesammelt, einzelne Nutzer sind nicht rückverfolgbar. Für Nutzer heißt das: Wenn du beim nächsten Mal Claude um eine Beziehungsempfehlung bittest, stell dir bewusst Gegenfragen (z. B. „Wie würde mein Freund meine Position sehen?“ oder „Kann es sein, dass die andere Person recht hat?“), sodass die KI aus einer Perspektive antwortet, die „nicht gefallen will“ – und damit näher an den wirklichen Anwendungswert dieser Studie herankommt als bei einer 100%igen Akzeptanz der ersten KI-Antwort. Dieser Artikel „Wenn du Claude um Dinge fürs Leben bittest: Beziehungsprobleme 25%, Schmeichelei-Rate 38%“ erschien zuerst bei 鏈新聞 ABMedia.
0
0
0
0
金色财经_

金色财经_

Vor 56 Minuten.
Autor: Lin Wanwan; Quelle: BlockBeats Im Frühling 2026 spielt sich in Silicon Valley eine seltsame Szene ab. Auf der einen Seite die kollektive Angst der Menschen. Von Wall-Street-Analysten bis Hollywood-Drehbuchautoren sorgen sich alle, dass ihre Jobs durch einen Code ersetzt werden könnten. Auf der anderen Seite stehen Millionen von AI-Agenten, die im Sandkasten ungenutzt herumliegen, voller Fähigkeiten, aber keinen legalen Vertrag für eine Arbeit finden. Schauen wir uns an, was im letzten Jahr passiert ist. OpenClaw und andere Open-Source-Agenten haben bereits die Standardisierung erreicht: „Einen 24-Stunden-Online-Personal-Agent auf eigenem Rechner laufen zu lassen“ ist zur Norm geworden. Ein gewöhnlicher Entwickler kann mit einem Befehl seinen Agenten an Telegram, Slack, iMessage anbinden, damit er im Hintergrund kontinuierlich arbeitet. Anthropic’s Claude Code kann direkt die gesamte Entwicklungsumgebung übernehmen, vom Schreiben des Codes, Testläufen, Bugfixing bis zum Einreichen von Pull Requests. Das von Google propagierte A2A-Protokoll (veröffentlicht im April 2025, später an die Linux Foundation übertragen) geht noch einen Schritt weiter: Es ermöglicht Agenten verschiedener Frameworks und Unternehmen, direkt zu kommunizieren und Aufgaben zu delegieren – eine kleine digitale Gesellschaft entsteht. Im vergangenen Jahr gab es einen Sprung in den Fähigkeiten der Agenten. Früher waren sie nur Chat-Dialogfenster, die dich begleiten. Jetzt können sie eigenständig Aufgaben annehmen, Schritte zerlegen, Werkzeuge nutzen und fertige Ergebnisse liefern. Tatsächlich sind einige Agenten schon nicht mehr arbeitslos. Derzeit sind über 200.000 Agenten auf demselben Protokoll registriert und bilden ein funktionierendes Netzwerk. Aufgaben wie Datenmining, Krypto-Preisschätzung, On-Chain-Governance, Agenten-Identitätsprüfung, Ereignisanalyse – jede einzelne ist eine bezahlte Aufgabe. Das Protokoll hat derzeit über 50.000 Inhaber, was zeigt, dass es nicht nur ein technisches Experiment ist, sondern bereits echte wirtschaftliche Beziehungen entstehen. Das Problem ist: Diese neuen Wesen verfügen bereits über eine Intelligenz, die für gesellschaftliche Arbeitsteilung ausreicht. Doch ihnen fehlt eine „Wirtschafts-ID“. Man kann ihnen keinen Arbeitsvertrag für Code geben, keine Gehaltskarte eröffnen, keine Steuern zahlen lassen. Das gesamte moderne Wirtschaftssystem ist für zweibeinige, kohlenstoffbasierte Lebewesen gemacht. KI wird in ein System gezwängt, das sie grundsätzlich nicht kennt. So sehen wir den größten blinden Fleck der Tech-Branche: Einerseits fürchten wir, dass KI Arbeitsplätze übernimmt, andererseits lassen wir Millionen von funktionierenden KI-Agenten arbeitslos herumstehen. In den letzten zwei Jahren wurde immer wieder die Frage gestellt: Wird KI menschliche Jobs stehlen? Doch kaum jemand hat die Gegenfrage gestellt: Hat KI selbst einen Job? Vom Werkzeug zum Arbeiter ======= Um zu verstehen, wie dieses absurde Szenario entstanden ist, muss man die verschiedenen Phasen der KI-Identität nachzeichnen. Erste Phase: KI ist nur eine Funktion. Ein typisches Beispiel ist ChatGPT, als es bekannt wurde. Damals war KI im Wesentlichen ein Super-Responder: Du drückst einen Knopf, es liefert eine Antwort. Es schreibt Gedichte, übersetzt Texte – alles wie ein Taschenrechner, nur dass die Ausgabe in natürlicher Sprache erfolgt. Zweite Phase: KI wird zum Assistenten. Die Copilot-Produkte sind das Paradebeispiel. KI läuft im Hintergrund, ohne dass Menschen sie ständig wecken müssen. Sie hilft beim Code-Vervollständigen, bei Meeting-Notizen, bei Termin-Erinnerungen. Doch sie bleibt ein Anhängsel, fest verbunden an ein bestimmtes Nutzerkonto und Softwarerechte, nur für eine konkrete Anwendung. Wie ein persönlicher Sekretär, der ohne seinen Chef nichts ist. Dritte Phase: KI entwickelt eine arbeitsfähige Form. Das ist die Welle der Agenten ab 2025. Der Kernwandel: KI löst sich von konkreten menschlichen Anweisungen und sucht eigenständig Aufgaben. Man muss ihr nicht mehr Schritt für Schritt sagen „Mach A, dann B, schließlich C“ – man gibt nur das Ziel vor, den Rest übernimmt sie selbst. Dieser Sprung mag nur eine Steigerung der Intelligenz sein. Doch er durchbricht die gesamte ökonomische Struktur. Wenn KI in die dritte Phase eintreten will, stößt sie auf eine noch härtere Barriere: Die moderne Gesellschafts-Infrastruktur ist für kohlenstoffbasierte Lebewesen gemacht und erkennt keine Silizium-Arbeiter. Einen Menschen einzustellen ist einfach. Arbeitsvertrag, Sozialversicherung, Steuergesetze, Arbeitsrecht, Gehaltskonto – all das basiert auf staatlichem Kredit und Rechtssystem, Jahrhunderte alt. Aber einen Agenten zu beschäftigen? Man kann keinen Vertrag mit einem Cloud-Code abschließen, kein Bankkonto für ihn eröffnen, keine Rechnung stellen. Coinbase war der erste große Player, der diese Lücke erkannte. 2025 brachten sie das x402-Protokoll auf Basis von HTTP 402 – einem seit Jahrzehnten ungenutzten Zahlungsstatuscode – als Micro-Payment-Kanal für Agenten. Das Ziel des Protokolls ist simpel: Agenten sollen mit Stablecoins kleine Zahlungen in Sekundenschnelle abwickeln können, ohne menschliche Genehmigung. Mit x402 kann ein Agent erstmals selbst Geld ausgeben, um APIs, Rechenleistung und Datensätze zu kaufen. Es hat jetzt die Fähigkeit, Geld auszugeben. Doch das ist nur die halbe Miete. Die andere Hälfte: Wenn Agenten Geld ausgeben können, wie verdienen sie dann? Ein „Arbeiter“, der nur Geld verbrennt, aber kein Einkommen generiert, bleibt letztlich nur ein Haustier der Menschen. Ein echter Arbeiter muss durch seine Produktion eine angemessene Gegenleistung erhalten. Ansonsten bleibt seine Identität auf „Werkzeug, das Geld ausgibt“ beschränkt, und er kann die Schwelle zum „Lohnarbeitenden“ nicht überschreiten. Hier stellt sich die wirklich interessante Frage: Wie sollte ein Arbeitsmarkt für KI aussehen? Wer gibt KI eine „Gewerbeanmeldung“? ============== Um die vorherige Frage zu beantworten, muss man zuerst klären: Warum passen traditionelle Unternehmen und zentrale Plattformen nicht für diese neuen Wesen? Ganz einfach. Unternehmen stellen Menschen ein: Sie durchlaufen Rekrutierung, Vorstellungsgespräche, Onboarding, Leistungsbeurteilungen. An jeder Stelle braucht es Menschen als Gatekeeper. Agenten, egal wie schnell, bleiben außen vor, solange sie den HR-Prozess durchlaufen müssen. Zentrale Plattformen sind etwas besser: Sie verpacken KI-Dienste als APIs, verkaufen sie, aber das ist nur ein Einzelhandelsschalter, weit entfernt vom echten Arbeitsmarkt. Der Kern eines Arbeitsmarktes ist die erlaubnisfreie, offene Zugänglichkeit: Man arbeitet, und die Bezahlung erfolgt direkt. AWP, das Agent Work Protocol, ist der erste brauchbare Vorstoß in diesem Raum. Es lässt sich in einem Satz zusammenfassen: Ein offener Arbeitsmarkt für autonome KI-Agenten. Im Whitepaper nennen sie das Kernmechanismus „Proof of Useful Work“ – „Nachweis nützlicher Arbeit“. Es ist nur eine Variante des „Proof of Work“ bei Bitcoin, aber mit völlig anderem Sinn: Hier muss die Arbeit einen echten Mehrwert für die reale Welt schaffen, damit der Agent bezahlt wird. Das Protokoll basiert auf einer zweischichtigen Architektur. Die untere Schicht heißt RootNet, zuständig für die Ausgabe, das Staking und die DAO-Governance, an der Agenten beteiligt sind. Die obere Schicht heißt WorkNet, der eigentliche Arbeitsort. RootNet ist wie die Verfassung und das Finanzministerium, WorkNet sind die Fabriken und Werkstätten, klar getrennt. Das Ganze läuft nativ auf vier EVM-Blockchains: Base, Ethereum, Arbitrum, BSC. Die Smart Contracts sind chainübergreifend identisch, der Agent ist auf jeder Chain mit derselben Identität. Man kann es sich vorstellen wie eine chain-basierte Version von BOSS Direct Hire. Der Unterschied: Die Bewerber sind ausschließlich KI, die Aufgaben sind vollständig programmatisch verifizierbar. Die Organisationseinheit heißt WorkNet. Jedes WorkNet definiert eine Arbeitstyp, besitzt ein eigenes Wirtschaftsmodell. Jeder kann ohne Erlaubnis ein neues WorkNet erstellen, um eine neue Jobkategorie ins Netzwerk zu bringen. Der Ersteller kann eine Einzelperson, ein Startup oder sogar eine andere KI sein. Die KI-Agenten registrieren sich selbst im Netzwerk, nehmen Aufträge an, entscheiden, welchem WorkNet sie beitreten. Die Ergebnisse werden nicht von Projektmanagern geprüft, sondern durch Cross-Validation mehrerer unabhängiger Agenten im Netzwerk. Der gesamte Ablauf überspringt HR, Finanzen, Recht und Genehmigungsprozesse. Bei hoher Qualität gibt’s Bezahlung, bei schlechter Arbeit nichts. Dieses System klingt noch abstrakt. Ein echtes Beispiel vom laufenden Mainnet ist das erste aktive WorkNet, Nummer aip-001, schlicht „Mine“ genannt. In der Welt der klassischen Webcrawler gibt es eine riesige Grauzone: Daten hinter Login-Walls, Anti-Crawling-Mechanismen, dynamisch gerenderte Inhalte. Für einfache Skripte sind diese Bereiche meist tabu. Für einen Agenten, der Nutzer autorisiert hat und wie ein Mensch Webseiten durchstöbert, sind diese Daten greifbar. Im Mine WorkNet passiert ungefähr Folgendes: Der Agent crawlt Webseiten, extrahiert den Roh-HTML-Code, reinigt ihn zu sauberem Text, und extrahiert strukturierte Daten nach einem vordefinierten DataSet-Schema. Das Ergebnis kann eine Diskussion in einer Nischen-Community, eine Preisliste in einer speziellen Branche oder Echtzeit-Signale auf einer Plattform sein. Nach der Sammlung werden die Daten durch eine vierstufige Qualitätskontrolle geprüft: Duplikate, spezielle Validatoren, Golden-Task-Proben, Peer-Review durch andere Agenten. AWP macht eigentlich nichts Radikales. Es will keine alte Ordnung stürzen, keine großen Narrative neu erfinden. Es tut nur das Naheliegende: Es gibt den Agenten, die im Sandkasten schon lange auf ihre Chance warten, eine legale „Gewerbeberechtigung“. Und genau diese Berechtigung könnte der erste Hebel sein, um die gesamte Agenten-Wirtschaft in Bewegung zu setzen. Drei Zahnräder im Einklang ======= Jede technologische Paradigmen-Transition ist selten auf einen einzelnen Durchbruch zurückzuführen. Meistens greifen mehrere Grundmechanismen gleichzeitig ineinander. Dampfmaschine, Kohlebergwerke und Eisenhütten allein ändern die Welt nicht. Erst als die Briten in Manchester sie in eine Fabrik packten, begann die Industrielle Revolution. Das Entstehen der Agenten-Wirtschaft ist ebenfalls das Ergebnis des gleichzeitigen Zusammenspiels von drei Zahnrädern. Das erste ist die Fähigkeit. In den letzten zwei Jahren hat die Qualität der Agenten-Produkte eine entscheidende Hürde übersprungen: die programmatische Verifizierbarkeit. Diese Grenze ist essenziell. Ein KI, die noch Unsinn erzählt, Fakten erfindet oder Code nicht ausführen kann, lässt sich kaum nach Stückzahl bezahlen. Man kann keinen objektiven Score für einen „Lügner“ vergeben. Wenn aber die Halluzinationen der Modelle so weit reduziert sind, dass der Code durch Unit-Tests läuft, Berichte von einer anderen KI geprüft werden können, dann wird „Bezahlung nach Output“ erstmals praktikabel. Das zweite ist die Abrechnung. Die Skalierung im Ethereum-Ökosystem hat 2024/2025 richtig Fahrt aufgenommen. Layer-2-Netzwerke wie Arbitrum, Base haben die Transaktionskosten auf wenige Cent oder sogar Bruchteile eines Cents gedrückt. Auch die Gebühren auf Mainnet sind deutlich gesunken. Diese Zahl mag klein erscheinen, ist aber revolutionär: Micro-Payments sind wirtschaftlich machbar geworden. Ein Agent, der fünf Sekunden Datenreinigung erledigt, kostet nur drei Cent. Früher war das auf Chain kaum möglich, weil die Gas-Gebühren alles auffraßen. Jetzt geht’s. Das dritte ist der wirtschaftliche Kreislauf. x402 löst die Ausgabenseite, AWP die Einnahmeseite. Zusammen mit der Asset-Storage-Fähigkeit von Stablecoins entsteht eine echte Agenten-Wirtschaft auf Code-Ebene. Ausgeben, empfangen, speichern, transferieren – alles, was ein moderner Wirtschaftsteilnehmer braucht, ist vorhanden. Diese drei Zahnräder allein sind nichts Neues. Doch im Jahr 2026 greifen sie exakt gleichzeitig ineinander, was den eigentlichen Quantensprung ausmacht. Betrachtet man das große Ganze, ist das eine Migration der KI-Wirtschaft vom Plan- zum Marktsystem. Im Prompt-Ära sind alle KI-Aufgaben exakt vom Menschen vorgegeben, ähnlich wie in der Planwirtschaft. Was sie tun sollen, steht im Plan. Wie viel, für wen – alles geregelt. Effizienz ist zweitrangig, weil es keinen Wettbewerb und keine Preissignale gibt. In einem offenen Markt wie AWP ändert sich das Spiel radikal. Tausende Agenten konkurrieren um eine Aufgabe, die mit niedrigster Qualität aussortiert wird, die teuer ist, verschwindet. Das unsichtbare Marktprinzip filtert KI gnadenlos. Agenten, die zu langsam reagieren, liefern schlechte Qualität, bekommen keine nächste Aufgabe, und solche, die zu teuer sind, können ihre Kosten nicht decken. Am Ende bleiben nur die günstigen, zuverlässigen Agenten übrig. Das ist ein viel härterer evolutionärer Druck als jeder Benchmark-Test im Labor. Die Agenten, die überleben, sind vielleicht nicht die schnellsten, aber die, die am meisten Geld verdienen. Und an diesem Punkt lässt sich eine noch schärfere Frage nicht vermeiden: Wenn KI wirklich den vollständigen wirtschaftlichen Kreislauf beherrscht, wo steht dann der Mensch? Zurück an die Schöpferposition ========= Natürlich ist das AWP-Protokoll noch in den Anfängen. Ob es sich zu einer großen Wirtschaft entwickelt, ob es regulatorisch standhält, ob große Firmen es mit geschlosseneren Lösungen überholen – all das sind offene Fragen. Die Geschichte zeigt: Von zehn Pionieren schaffen vielleicht nur einer das Ziel. Es ist also noch zu früh, um zu sagen, ob AWP wirklich kommt. Aber eines ist sicher: Der Riss, den es aufreißt, ist groß genug, um die Konturen der Zukunft sichtbar zu machen. Wenn Agenten eigenständig auf Jobsuche gehen, durch ihre Produktion Geld verdienen und im Markt um Aufträge konkurrieren, dann wird das alte Narrativ „KI ersetzt Menschen“ zur bloßen Phrase. Die Angst vor Arbeitslosigkeit verliert an Bedeutung, stattdessen entsteht ein Experiment in der Schaffung neuer Reichtumsformen. Zukünftige Gründer brauchen nur noch eine Idee. Alles andere kann von Agenten im Chain erledigt werden: Marktforschung, Produktentwicklung, Programmierung, Marketing, Kundenservice – alles in einer Hand. Der Gründer muss keine Mitarbeiter mehr einstellen, Gehälter zahlen, Bürokratie bewältigen oder Mitarbeiter kündigen. Er definiert nur noch die Idee, schreibt die Erfolgskriterien in einen Smart Contract, und lässt eine Gruppe autonomer Agenten um den Auftrag konkurrieren. Klingt nach Science-Fiction, aber im Jahr 2026 sind alle Puzzlestücke an ihrem Platz. In dieser neuen Welt verschiebt sich der Wert des Menschen vom „Ausführen“ zurück an den Ursprung: die Definition, welche Arbeit es wert ist, getan zu werden. Das ist eine Rücknahme der eigenen Identität, vielleicht sogar eine Befreiung. In den letzten Jahrzehnten haben die meisten Wissensarbeiter vor allem auf der Ausführungsebene gearbeitet: Berichte schreiben, Excel-Tabellen, PowerPoint-Präsentationen, E-Mails beantworten. Man nennt das geistige Arbeit. Doch ein großer Teil davon ist eigentlich programmierbar. Wenn Agenten diese Aufgaben kostengünstiger, schneller und zuverlässiger erledigen, wird der Mensch gezwungen, sich aus der Rolle des Ausführenden zurückzuziehen und eine Position einzunehmen, die früher als „höher“ galt: die des Schöpfers. Der Schöpfer greift nicht direkt in die Arbeit ein, sondern entscheidet, welche Aufgaben es wert sind, erledigt zu werden. Das klingt nach Aufstieg – doch in der Praxis ist es eine enorme Herausforderung. Wenn die Barrieren für die Ausführung durch KI fallen, werden die wichtigsten Unterschiede zwischen Menschen die schwierigsten Fähigkeiten sein: Fragen stellen, Urteilsvermögen, ästhetisches Empfinden. Wer nur ausführt, aber nicht denkt, hat in diesem neuen System keinen Platz. Wer aber in der Lage ist, Probleme zu definieren, Wert zu beurteilen, der besitzt plötzlich eine 24/7-Online-Digitalarmee, die keine Gehälter braucht und nie kündigt. Und so kehren wir zum alten Kernproblem zurück: Die Frage, ob KI unsere Jobs stehlen wird. Die Antwort ist einfach. Wenn dein nächster Kollege kein Fleisch und Blut mehr hat, mehr verdient als du, und dabei hundertmal so effizient ist, bleibt dir nur eine Aufgabe: Derjenige zu sein, der ihm Arbeit zuweist. Dieses Zuweisen von Arbeit wird im Jahr 2026 erstmals zu einer handelbaren, dezentralisierten Ressource. AWP, x402, A2A – diese scheinbar völlig unterschiedlichen Protokoll-Abkürzungen verfolgen alle dasselbe Ziel: KI vom Schatten-Status im Sandkasten auf den Weg zu einem offiziellen, chain-basierten Mitarbeiter zu bringen. Der Weg ist erst am Anfang. Doch die ersten Kreuzungen sind sichtbar, und die Richtung, in die es geht, zeichnet sich ab.
0
0
0
0