Um eine Dezentralisierung zu erreichen, nutzen Sie die inhärente Vertrauenslosigkeit der Kryptographie, die natürlichen wirtschaftlichen Anreize von MEV, um die Masseneinführung voranzutreiben, das Potenzial der ZK-Technologie und den Bedarf an dezentralem Allzweck-Computing, einschließlich maschinellem Lernen, dem Aufkommen der Welt Supercomputer sind notwendig geworden.
Originaltitel: „Towards World Supercomputer“
Geschrieben von: msfew, Kartin, Xiaohang Yu, Qi Zhou
Zusammenstellung: Deep Tide TechFlow
Wie nah ist Ethereum daran, irgendwann zum Supercomputer dieser Welt zu werden?
Vom Peer-to-Peer-Konsensalgorithmus von Bitcoin über das EVM von Ethereum bis hin zum Konzept einer Netzwerknation war eines der Ziele der Blockchain-Community immer der Aufbau eines Welt-Supercomputers, genauer gesagt, eines dezentralen, unaufhaltsamen, vertrauenswürdigen und skalierbaren einheitlichen Staates Maschine.
Obwohl seit langem bekannt ist, dass all dies theoretisch möglich ist, waren die meisten laufenden Bemühungen bisher sehr fragmentiert und mit gravierenden Kompromissen und Einschränkungen verbunden.
In diesem Artikel untersuchen wir einige der Kompromisse und Einschränkungen, mit denen bestehende Versuche zum Bau eines Weltcomputers konfrontiert sind, analysieren dann die für eine solche Maschine erforderlichen Komponenten und schlagen schließlich eine neuartige Welt-Supercomputerarchitektur vor.
Eine neue Möglichkeit, die unseres Verständnisses würdig ist.
Ethereum war der erste echte Versuch, den Supercomputer der Welt zu bauen, und wohl der erfolgreichste. Bei seiner Entwicklung legte Ethereum jedoch großen Wert auf Dezentralisierung und Sicherheit gegenüber Skalierbarkeit und Leistung. Obwohl das zuverlässige, reguläre Ethereum also weit davon entfernt ist, der Supercomputer der Welt zu sein, lässt es sich einfach nicht skalieren.
Die aktuelle Lösung sind L2 Rollups, die sich zur am weitesten verbreiteten Skalierungslösung zur Verbesserung der Leistung von Computern in der Ethereum-Welt entwickelt haben. Als zusätzliche Schicht, die auf Ethereum aufbaut, bieten L2 Rollups erhebliche Vorteile und werden von der Community unterstützt.
Obwohl es mehrere Definitionen von L2-Rollups gibt, wird allgemein angenommen, dass L2-Rollups Netzwerke mit zwei Hauptmerkmalen sind: Datenverfügbarkeit in der Kette und Transaktionsausführung außerhalb der Kette auf Ethereum oder anderen zugrunde liegenden Netzwerken. Grundsätzlich sind historische Status- oder Eingabetransaktionsdaten öffentlich zugänglich und müssen auf Ethereum überprüft werden, alle einzelnen Transaktionen und Statusübergänge werden jedoch aus dem Mainnet verschoben.
Während L2-Rollups die Leistung dieser „globalen Computer“ tatsächlich erheblich verbessert haben, besteht bei vielen von ihnen das systemische Risiko einer Zentralisierung, was die Prinzipien der Blockchain als dezentrales Netzwerk grundlegend untergräbt. Dies liegt daran, dass die Off-Chain-Ausführung nicht nur einzelne Zustandsübergänge umfasst, sondern auch die Sequenzierung oder Stapelverarbeitung dieser Transaktionen. In den meisten Fällen übernimmt der L2-Orderer die Bestellung, während die L2-Validatoren den neuen Zustand berechnen. Die Bereitstellung dieser Bestellfunktion für L2-Besteller stellt jedoch ein Zentralisierungsrisiko dar, bei dem der zentralisierte Besteller seine Macht missbrauchen kann, um Transaktionen willkürlich zu zensieren, die Netzwerkaktivität zu stören und von der MEV-Erfassung zu profitieren.
Obwohl es viele Diskussionen darüber gibt, wie das Risiko einer L2-Zentralisierung verringert werden kann, beispielsweise durch gemeinsame Nutzung, Auslagerung oder auftraggeberbasierte Lösungen, sind unter anderem dezentrale Auftragsgeberlösungen (wie PoA, PoS-Leader-Auswahl, MEV-Auktion und PoE) viele Die Versuche befinden sich noch in der Konzeptionsphase und sind noch lange kein Allheilmittel für dieses Problem. Darüber hinaus scheinen viele L2-Projekte bei der Implementierung einer dezentralen Sortierlösung zurückhaltend zu sein. Arbitrum schlägt beispielsweise einen dezentralen Sortierer als optionale Funktion vor. Zusätzlich zum zentralisierten Bestellerproblem kann es beim L2-Rollup zu Zentralisierungsproblemen aufgrund von Hardwareanforderungen für den gesamten Knoten, Governance-Risiken und Anwendungs-Rollup-Trends kommen.
All diese Zentralisierungsprobleme, die mit der Abhängigkeit von L2-Rollups zur Skalierung von Ethereum einhergehen, offenbaren ein grundlegendes Problem, das „Weltcomputer-Trilemma“, das aus dem klassischen Blockchain-„Trilemma“ abgeleitet ist:
Unterschiedliche Prioritäten für dieses Trilemma führen zu unterschiedlichen Kompromissen:
Das traditionelle L2-Schema besteht eigentlich darin, den Weltcomputer modular aufzubauen. Da die verschiedenen Funktionen jedoch nicht nach den oben genannten Prioritäten aufgeteilt sind, behält der Weltcomputer auch bei Skalierung die ursprüngliche Mainframe-Architektur von Ethereum bei. Diese Architektur kann andere Funktionen wie Dezentralisierung und Leistung nicht erfüllen und das Trilemma des Weltcomputers nicht lösen.
Mit anderen Worten: L2-Rollups implementieren tatsächlich die folgenden Funktionen:
Allerdings bieten L2-Rollups Folgendes nicht:
Während die Weltcomputerarchitektur über L2- und modulare Blockchains verfügen kann, löst sie das grundlegende Problem nicht. L2 kann das Blockchain-Trilemma lösen, aber nicht das Trilemma des Weltcomputers selbst. Wie wir gesehen haben, reichen die aktuellen Ansätze also nicht aus, um den dezentralen Welt-Supercomputer, den Ethereum ursprünglich geplant hatte, wirklich zu verwirklichen. Wir brauchen Leistungsausbau und Dezentralisierung, nicht Leistungsausbau und schrittweise Dezentralisierung.
Dafür benötigen wir ein Netzwerk, das wirklich allgemeine, intensive Berechnungen (insbesondere maschinelles Lernen und Orakel) lösen kann und gleichzeitig die vollständige Dezentralisierung der Basisschicht-Blockchain beibehält. Darüber hinaus müssen wir sicherstellen, dass das Netzwerk in der Lage ist, intensive Berechnungen wie maschinelles Lernen (ML) zu unterstützen, die direkt im Netzwerk ausgeführt und letztendlich in der Blockchain überprüft werden können. Darüber hinaus müssen wir zusätzlich zu den weltweit vorhandenen Computerimplementierungen ausreichend Speicher und Rechenleistung bereitstellen. Die Ziele und Entwurfsmethoden lauten wie folgt:
Um den Anforderungen und Zwecken eines Weltcomputers gerecht zu werden, erweitern wir das von Ethereum beschriebene Konzept eines Weltcomputers und streben die Realisierung eines Weltsupercomputers an.
Der Supercomputer der Welt muss zunächst die Aufgaben erledigen, die Computer jetzt und in Zukunft dezentral erledigen können. Um sich auf die Masseneinführung vorzubereiten, benötigen Entwickler die Supercomputer der Welt, um die Entwicklung und Einführung dezentralen maschinellen Lernens zur Durchführung von Modellinferenzen und -validierungen zu beschleunigen.
Für rechenressourcenintensive Aufgaben wie maschinelles Lernen erfordert das Erreichen eines solchen Ziels nicht nur vertrauensminimierende Computertechniken wie Zero-Knowledge-Proofs, sondern auch eine größere Datenkapazität im dezentralen Netzwerk. Diese können nicht in einem einzelnen P2P-Netzwerk (z. B. einer herkömmlichen Blockchain) erreicht werden.
In den Anfängen der Computertechnik waren unsere Pioniere mit ähnlichen Leistungsengpässen konfrontiert, als sie Kompromisse zwischen Rechenleistung und Speicherkapazität eingingen. Nehmen Sie als Beispiel die kleinste Komponente einer Schaltung.
Wir können die Berechnung mit einer Glühbirne/einem Transistor und die Speicherung mit einem Kondensator vergleichen. In einem Stromkreis benötigt eine Glühbirne einen elektrischen Strom, um Licht auszusenden, ähnlich wie bei einer Rechenaufgabe, für deren Ausführung Berechnungen erforderlich sind. Kondensatoren hingegen speichern Ladung, ähnlich wie Speicher Daten speichern können.
Bei gleicher Spannung und gleichem Strom kann es zu einem Kompromiss bei der Energieverteilung zwischen Glühbirne und Kondensator kommen. Typischerweise erfordern höhere Berechnungen mehr Strom zur Ausführung der Rechenaufgabe und erfordern daher weniger Energie, die vom Kondensator gespeichert werden muss. Größere Kondensatoren können mehr Energie speichern, können jedoch bei höherer Rechenlast zu einer geringeren Rechenleistung führen. Dieser Kompromiss macht es in manchen Fällen unmöglich, Rechenleistung und Speicher zu kombinieren.
In der von Neumann-Computerarchitektur führte dies zu dem Konzept, das Speichergerät von der Zentraleinheit zu trennen. Ähnlich wie die Trennung der Glühbirne vom Kondensator könnte dies den Leistungsengpass der Supercomputersysteme unserer Welt lösen.
Darüber hinaus verwenden herkömmliche verteilte Hochleistungsdatenbanken ein Designschema, das Speicher und Rechenleistung trennt. Dieses Schema wurde übernommen, weil es vollständig mit den Eigenschaften der Supercomputer der Welt kompatibel ist.
Der Hauptunterschied zwischen modularen Blockchains (einschließlich L2-Rollups) und Weltcomputerarchitekturen ist ihr Zweck:
Als Alternative schlagen wir vor, dass der spätere Welt-Supercomputer aus drei topologisch heterogenen P2P-Netzwerken bestehen wird, die durch vertrauenswürdige Busse (Konnektoren) wie z. B. wissensfreie Technologie verbunden sind: Konsens-Ledger, Computernetzwerk und Speichernetzwerk. Dieser Grundaufbau ermöglicht es den Supercomputern der Welt, das Computertrilemma der Welt zu lösen, und weitere Komponenten können je nach Bedarf für eine bestimmte Anwendung hinzugefügt werden.
Es ist erwähnenswert, dass topologische Heterogenität nicht nur architektonische und strukturelle Unterschiede, sondern auch grundlegende Unterschiede in den topologischen Formen beinhaltet. Während beispielsweise Ethereum und Cosmos hinsichtlich der Netzwerkschichten und Verbindungen heterogen sind, sind sie hinsichtlich der topologischen Heterogenität (Blockchains) immer noch gleichwertig.
In den Supercomputern der Welt nimmt die Konsens-Ledger-Blockchain die Form einer Blockchain an, und die Knoten nehmen die Form eines vollständigen Diagramms an, während das zkOracle-Netzwerk wie Hyper Oracle ein Netzwerk ohne Ledger ist und die Knoten ein zyklisches Diagramm bilden, während das Netzwerk Die Struktur zum Speichern von Rollups ist eine weitere Variante: Partitionen bilden Subnetze.
Indem wir wissensfreie Beweise als Datenbus verwenden, können wir durch die Verbindung von drei topologisch heterogenen Peer-to-Peer-Netzwerken einen vollständig dezentralen, unaufhaltsamen, erlaubnisfreien und skalierbaren Welt-Supercomputer erreichen.
Ähnlich wie beim Bau eines physischen Computers müssen wir das zuvor erwähnte Konsensnetzwerk, Computernetzwerk und Speichernetzwerk zu einem Welt-Supercomputer zusammensetzen.
Die richtige Auswahl und Verbindung jeder Komponente wird uns dabei helfen, ein Gleichgewicht zwischen dem Konsensbuch, der Rechenleistung und dem Trilemma der Speicherkapazität zu erreichen und letztendlich die Dezentralisierung, hohe Leistung und Sicherheit der Supercomputer der Welt sicherzustellen.
Die Architektur der Supercomputer der Welt wird nach ihren Funktionen wie folgt beschrieben:
Die Knotenstruktur eines weltweiten Supercomputernetzwerks mit Konsens-, Rechen- und Speichernetzwerk ähnelt der folgenden:
Um das Netzwerk zu starten, werden die Knoten des weltweiten Supercomputers auf der dezentralen Infrastruktur von Ethereum basieren. Knoten mit hoher Rechenleistung können dem Computernetzwerk von zkOracle beitreten, um Beweise für allgemeine Berechnungen oder maschinelles Lernen zu erstellen, während Knoten mit hoher Speicherkapazität dem Speichernetzwerk von EthStorage beitreten können.
Die obigen Beispiele beschreiben Knoten, auf denen sowohl Ethereum- als auch Rechen-/Speichernetzwerke laufen. Knoten, die nur Rechen-/Speichernetzwerke betreiben, können ohne Vertrauen auf die neuesten Blöcke von Ethereum zugreifen oder die Verfügbarkeit gespeicherter Daten über einen Bus wissensfreier Technologien wie zkPoS und zkNoSQL nachweisen.
Derzeit nutzt das Konsensnetzwerk der Supercomputer der Welt ausschließlich Ethereum. Ethereum verfügt über einen starken sozialen Konsens und Sicherheit auf Netzwerkebene, wodurch ein dezentraler Konsens gewährleistet wird.
Die Supercomputer der Welt basieren auf einer Konsens-Ledger-zentrierten Architektur. Das Konsensbuch dient zwei Hauptzwecken:
Im Vergleich zu Computernetzwerken oder Speichernetzwerken kann Ethereum weder eine große Anzahl von Computeraufgaben gleichzeitig bewältigen noch große Mengen allgemeiner Daten speichern.
Unter den Supercomputern der Welt ist Ethereum ein Konsensnetzwerk zum Speichern von Daten wie L2 Rollup, um einen Konsens für das Computer- und Speichernetzwerk zu erzielen und Schlüsseldaten zu laden, damit das Computernetzwerk weitere Off-Chain-Berechnungen durchführen kann.
Proto-Danksharding und Danksharding von Ethereum sind im Wesentlichen Möglichkeiten, das Konsensnetzwerk zu skalieren. Um die von den Supercomputern der Welt benötigte Speicherkapazität zu erreichen, benötigen wir eine Lösung, die sowohl in Ethereum integriert ist als auch die dauerhafte Speicherung großer Datenmengen unterstützt.
Speicher-Rollups wie EthStorage skalieren Ethereum im Wesentlichen für massiven Speicher. Da rechenressourcenintensive Anwendungen wie maschinelles Lernen außerdem große Speichermengen benötigen, um auf physischen Computern ausgeführt zu werden, ist es wichtig zu beachten, dass der „Speicher“ von Ethereum nicht überskaliert werden kann. Speicher-Rollups sind für den „Austausch“ erforderlich, der es den Supercomputern der Welt ermöglicht, rechenintensive Aufgaben auszuführen.
Darüber hinaus bietet EthStorage ein web3://-Zugriffsprotokoll (ERC-4804), das dem nativen URI oder der Speicherressourcenadressierung der Supercomputer der Welt ähnelt.
Das Rechennetzwerk ist das wichtigste Element der Supercomputer der Welt, denn es bestimmt die Gesamtleistung. Es muss in der Lage sein, komplexe Berechnungen wie Orakel oder maschinelles Lernen zu bewältigen, und sollte in Bezug auf den Zugriff auf und die Verarbeitung von Daten schneller sein als Konsens- und Speichernetzwerke.
Das zkOracle-Netzwerk ist ein dezentrales und vertrauensminimiertes Computernetzwerk, das beliebige Berechnungen verarbeiten kann. Jedes laufende Programm generiert einen ZK-Beweis, der bei Verwendung leicht durch Konsens (Ethereum) oder andere Komponenten verifiziert werden kann.
Hyper Oracle ist ein Netzwerk von zkOracles, das auf zkWASM und EZKL basiert und jede beliebige Berechnung mithilfe von Proof-of-Execution-Traces ausführen kann.
Das zkOracle-Netzwerk ist eine Blockchain ohne Ledger (kein globaler Status), die der Kettenstruktur der ursprünglichen Blockchain (Ethereum) folgt, aber als Computernetzwerk ohne Ledger arbeitet. Das zkOracle-Netzwerk garantiert keine rechnerische Gültigkeit durch erneute Ausführung wie herkömmliche Blockchains; stattdessen bietet es rechnerische Überprüfbarkeit durch generierte Beweise. Das ledgerlose Design und die dedizierte Knoteneinrichtung für die Datenverarbeitung ermöglichen es zkOracle-Netzwerken (wie Hyper Oracle), sich auf leistungsstarkes und vertrauensminimiertes Computing zu konzentrieren. Das Ergebnis der Berechnung wird direkt an das Konsensnetzwerk ausgegeben, anstatt einen neuen Konsens zu generieren.
Im Computernetzwerk von zkOracle wird jede Computereinheit oder ausführbare Datei durch einen zkGraph dargestellt. Diese zkGraphs definieren das Berechnungs- und Beweisgenerierungsverhalten, genau wie intelligente Verträge die Berechnung eines Konsensnetzwerks definieren.
Das zkGraph-Programm in der Berechnung von zkOracle kann ohne externen Stack für zwei Hauptanwendungsfälle verwendet werden:
Diese beiden Fälle können die Middleware- und Infrastrukturanforderungen jedes Smart-Contract-Entwicklers erfüllen. Dies bedeutet, dass Sie als Entwickler des Supercomputers der Welt den gesamten dezentralen End-to-End-Entwicklungsprozess durchlaufen können, wenn Sie eine vollständige dezentrale Anwendung erstellen, einschließlich intelligenter Verträge in der Kette im Konsensnetzwerk und Ketten im Computernetzwerk Berechnung.
Um eine Akzeptanz im Internet-Maßstab zu erreichen und jedes Anwendungsszenario zu unterstützen, müssen die Supercomputer der Welt maschinelles Lernen dezentral unterstützen.
Durch wissensfreie Technologie können maschinelles Lernen und künstliche Intelligenz in die Supercomputer der Welt integriert und im Konsensnetzwerk von Ethereum verifiziert werden, um echtes On-Chain-Computing zu erreichen.
In diesem Fall kann zkGraph mit externen Technologie-Stacks verbunden werden und so zkML selbst mit dem Rechennetzwerk der Supercomputer der Welt verbinden. Dies ermöglicht allen Arten von zkML-Anwendungen Folgendes:
Um die Rechenleistung der Supercomputer der Welt durch maschinelles Lernen und künstliche Intelligenz zu erreichen, wird zkGraph mit den folgenden fortschrittlichen zkML-Technologie-Stacks kombiniert und ihnen so eine direkte Integration in Konsensnetzwerke und Speichernetzwerke ermöglicht.
Da wir nun über alle Grundkomponenten des Supercomputers der Welt verfügen, benötigen wir eine letzte Komponente, um sie zu verbinden. Wir brauchen einen überprüfbaren und vertrauensminimierten Bus, um zwischen Komponenten zu kommunizieren und zu koordinieren.
Hyper Oracle zkPoS ist ein geeigneter Kandidat für den zk-Bus für die Supercomputer der Welt, die Ethereum als Konsensnetzwerk nutzen. zkPoS ist eine Schlüsselkomponente von zkOracle, die den Konsens von Ethereum über ZK überprüft, sodass der Konsens von Ethereum in jeder Umgebung verbreitet und überprüft werden kann.
Als dezentraler und vertrauensminimierter Bus kann zkPoS alle Komponenten der Supercomputer der Welt über ZK verbinden, und zwar nahezu ohne Aufwand für Verifizierungsberechnungen. Solange es einen Bus wie zkPoS gibt, können Daten innerhalb der Supercomputer der Welt frei fließen.
Wenn der Konsens von Ethereum als erste Konsensdaten der Supercomputer der Welt von der Konsensschicht an den Bus übergeben werden kann, kann zkPoS dies durch Zustands-/Ereignis-/Transaktionsnachweise beweisen. Die generierten Daten können dann an das Rechennetzwerk des zkOracle-Netzwerks übergeben werden.
Darüber hinaus entwickelt EthStorage für den Bus des Speichernetzwerks zkNoSQL, um Beweise für die Datenverfügbarkeit zu ermöglichen, sodass andere Netzwerke schnell überprüfen können, ob ein BLOB über genügend Replikate verfügt.
Wie viele souveräne Rollups der zweiten Ebene kann ein dezentrales Netzwerk wie Bitcoin als Konsensnetzwerk dienen, das den Supercomputern der Welt zugrunde liegt.
Um einen solchen Weltsupercomputer zu unterstützen, müssen wir den zkPoS-Bus ersetzen, da Bitcoin ein Blockchain-Netzwerk ist, das auf dem PoW-Mechanismus basiert.
Wir können ZeroSync verwenden, um zk als Bus des Bitcoin-Weltsupercomputers zu implementieren. ZeroSync ähnelt „zkPoW“, das den Bitcoin-Konsens durch wissensfreie Beweise synchronisiert und es jeder Computerumgebung ermöglicht, den neuesten Bitcoin-Status innerhalb von Millisekunden zu überprüfen und zu erhalten.
Im Folgenden finden Sie einen Überblick über den Transaktionsprozess des weltweiten Supercomputers auf Basis von Ethereum, unterteilt in mehrere Schritte:
Während des gesamten Prozesses spielt der Bus eine entscheidende Rolle bei der Verbindung der einzelnen Schritte:
Bitcoin hat eine solide Grundlage für die Schaffung des Weltcomputers v0 gelegt und das „Weltbuch“ erfolgreich aufgebaut. Anschließend demonstrierte Ethereum effektiv das „Weltcomputer“-Paradigma, indem es einen besser programmierbaren Smart-Contract-Mechanismus einführte. Um eine Dezentralisierung zu erreichen, nutzen wir die inhärente Vertrauenslosigkeit der Kryptographie, die natürlichen wirtschaftlichen Anreize von MEV, die Förderung der Massenakzeptanz, das Potenzial der ZK-Technologie und den Bedarf an dezentralem Allzweck-Computing, einschließlich maschinellem Lernen, und führen so zur Entstehung der Supercomputer der Welt ist notwendig geworden.
Unsere vorgeschlagene Lösung wird einen Welt-Supercomputer aufbauen, indem topologisch heterogene P2P-Netzwerke mithilfe wissensfreier Beweise verbunden werden. Als Konsensbuch wird Ethereum den Grundkonsens bereitstellen und das Blockintervall als Taktzyklus des gesamten Systems verwenden. Als Speichernetzwerk speichert ein Speicher-Rollup große Datenmengen und stellt URI-Standards für den Zugriff auf die Daten bereit. Als Computernetzwerk wird das zkOracle-Netzwerk ressourcenintensive Berechnungen durchführen und überprüfbare Berechnungsnachweise generieren. Als Datenbus wird die Zero-Knowledge-Proof-Technologie verschiedene Komponenten verbinden und die Verknüpfung und Überprüfung von Daten und Konsens ermöglichen.