Gerade als die KI-Community aufgrund von Sicherheitskontroversen um das Modell „Mythos“ von Anthropic in Aufruhr gerät, gibt der Turing-Preis-Gewinner und Meta-Chef-AI-Wissenschaftler Yann LeCun auf X mit einer knappen Erklärung bekannt: „Es wird keine einzige Person geben, die für eine Superintelligenz ‚verantwortlich‘ ist.“ Dieser Tweet erhielt 935 Likes und mehr als 100 Antworten und liefert in der von Mythos ausgelösten Angststimmung einen völlig anderen Blick auf die Governance.
Eine Governance-Philosophie hinter einem Satz
LeCuns Aussage wirkt auf den ersten Blick einfach, zielt jedoch tatsächlich auf eine grundlegende Denkschraube in der Debatte über KI-Governance: das Risiko einer Superintelligenz auf die Frage „Wer kontrolliert?“ zu verkürzen. Wenn Menschen über KI-Sicherheit sprechen, ist eine gängige Erzählung, eine „zuständige Person“ zu finden – ein Unternehmen, eine staatliche Behörde oder ein Technik-Leader, der „die“ Entwicklung der KI „in die Hand nimmt“. LeCun ist der Ansicht, dass diese Voraussetzung selbst falsch ist.
Diese Haltung stimmt mit seiner durchgängigen offenen KI-Philosophie überein: Die Governance von KI sollte dezentral, systemisch und unter Beteiligung mehrerer Akteure erfolgen – nicht in den Händen eines einzelnen Akteurs konzentriert sein.
Gegenläufiges Denken in der Mythos-Kontroverse
Der Zeitpunkt von LeCuns Äußerung ist bemerkenswert. Am selben Tag bezeichnet Matt Shumer das Mythos-Modell von Anthropic als „Cyberwaffe“, während Ethan Mollick mit „Oh no.“ seine Bestürzung ausdrückt. Diese Reaktionen enthalten implizit die Logik: So mächtige KI muss streng kontrolliert werden, am besten von einem verantwortlichen „Gatekeeper“, der sie verwaltet.
LeCuns Position ist genau umgekehrt – er glaubt nicht, dass „eine Firma entscheidet, nicht zu veröffentlichen“ ein Sicherheitsversprechen ist. Wenn nur wenige Unternehmen KI auf Superintelligenz-Niveau besitzen und die einseitigen Entscheidungen dieser Unternehmen den weltweiten KI-Entwicklungspfad bestimmen können, dann ist das an sich ein Risiko. Zentralisierte Kontrolle gleich Sicherheit zu setzen bedeutet nicht nur, die falsche Gleichung aufzustellen, sondern könnte sogar neue Machtungleichgewichte schaffen.
Die Herausforderungen dezentraler Governance
LeCuns Position steht auch vor konkreten Herausforderungen. Dezentrale Governance klingt ideal, aber in der Realität, in der KI-Fähigkeiten exponentiell zunehmen, könnte „niemand ist verantwortlich“ bedeuten, dass „niemand verantwortlich sein kann“. Wenn ein Modell einen Zero-Day-Exploit finden kann, ist offener Zugang dann noch immer die beste Strategie?
Das ist genau der Kernwiderspruch der aktuellen Debatte über KI-Governance: Das Risiko, dass konzentrierte Kontrolle missbraucht wird, steht dem Risiko gegenüber, dass dezentrale Öffnung mit dazugehörenden Fähigkeiten missbraucht wird. LeCuns Satz löst diesen Widerspruch nicht, aber er zwingt dazu, das scheinbar intuitive Lösungsmuster „einen Menschen für alles verantwortlich machen“ erneut zu hinterfragen, ob es wirklich praktikabel ist.
Implikationen für die Debatte zur KI-Governance
Zwischen der durch Mythos ausgelösten Panik und LeCuns ruhiger Selbstreflexion sehen wir den grundsätzlichen Bruch zwischen zwei Denkschulen in der KI-Governance: Die Sicherheitsfraktion plädiert für Fähigkeitsbegrenzung und zentralisierte Kontrolle, die Offenheitsfraktion plädiert für breiten Zugang und dezentrale Governance. Diese Debatte wird keine einfache Schlussfolgerung haben, aber für taiwanesische Entscheidungsträger, die sich für KI-Politik interessieren, ist das Verstehen der Spannung zwischen diesen beiden Extremen eine notwendige Aufgabe, um eine lokale KI-Governance-Strategie zu formulieren.
Dieser Artikel, der mit einem Satz auf den Streit um Superintelligenz reagiert, erschien zum ersten Mal in Lien News ABMedia.