Auf dem Weg zum Supercomputer der Welt: Ein neues Paradigma für die dezentrale Ausführung im Hyperscale-Bereich

ForesightNews

Um eine Dezentralisierung zu erreichen, nutzen Sie die inhärente Vertrauenslosigkeit der Kryptographie, die natürlichen wirtschaftlichen Anreize von MEV, um die Masseneinführung voranzutreiben, das Potenzial der ZK-Technologie und den Bedarf an dezentralem Allzweck-Computing, einschließlich maschinellem Lernen, dem Aufkommen der Welt Supercomputer sind notwendig geworden.

Originaltitel: „Towards World Supercomputer

Geschrieben von: msfew, Kartin, Xiaohang Yu, Qi Zhou

Zusammenstellung: Deep Tide TechFlow

einführen

Wie nah ist Ethereum daran, irgendwann zum Supercomputer dieser Welt zu werden?

Vom Peer-to-Peer-Konsensalgorithmus von Bitcoin über das EVM von Ethereum bis hin zum Konzept einer Netzwerknation war eines der Ziele der Blockchain-Community immer der Aufbau eines Welt-Supercomputers, genauer gesagt, eines dezentralen, unaufhaltsamen, vertrauenswürdigen und skalierbaren einheitlichen Staates Maschine.

Obwohl seit langem bekannt ist, dass all dies theoretisch möglich ist, waren die meisten laufenden Bemühungen bisher sehr fragmentiert und mit gravierenden Kompromissen und Einschränkungen verbunden.

In diesem Artikel untersuchen wir einige der Kompromisse und Einschränkungen, mit denen bestehende Versuche zum Bau eines Weltcomputers konfrontiert sind, analysieren dann die für eine solche Maschine erforderlichen Komponenten und schlagen schließlich eine neuartige Welt-Supercomputerarchitektur vor.

Eine neue Möglichkeit, die unseres Verständnisses würdig ist.

1. Einschränkungen der aktuellen Methode

a) Ethereum- und L2-Rollups

Ethereum war der erste echte Versuch, den Supercomputer der Welt zu bauen, und wohl der erfolgreichste. Bei seiner Entwicklung legte Ethereum jedoch großen Wert auf Dezentralisierung und Sicherheit gegenüber Skalierbarkeit und Leistung. Obwohl das zuverlässige, reguläre Ethereum also weit davon entfernt ist, der Supercomputer der Welt zu sein, lässt es sich einfach nicht skalieren.

Die aktuelle Lösung sind L2 Rollups, die sich zur am weitesten verbreiteten Skalierungslösung zur Verbesserung der Leistung von Computern in der Ethereum-Welt entwickelt haben. Als zusätzliche Schicht, die auf Ethereum aufbaut, bieten L2 Rollups erhebliche Vorteile und werden von der Community unterstützt.

Obwohl es mehrere Definitionen von L2-Rollups gibt, wird allgemein angenommen, dass L2-Rollups Netzwerke mit zwei Hauptmerkmalen sind: Datenverfügbarkeit in der Kette und Transaktionsausführung außerhalb der Kette auf Ethereum oder anderen zugrunde liegenden Netzwerken. Grundsätzlich sind historische Status- oder Eingabetransaktionsdaten öffentlich zugänglich und müssen auf Ethereum überprüft werden, alle einzelnen Transaktionen und Statusübergänge werden jedoch aus dem Mainnet verschoben.

Während L2-Rollups die Leistung dieser „globalen Computer“ tatsächlich erheblich verbessert haben, besteht bei vielen von ihnen das systemische Risiko einer Zentralisierung, was die Prinzipien der Blockchain als dezentrales Netzwerk grundlegend untergräbt. Dies liegt daran, dass die Off-Chain-Ausführung nicht nur einzelne Zustandsübergänge umfasst, sondern auch die Sequenzierung oder Stapelverarbeitung dieser Transaktionen. In den meisten Fällen übernimmt der L2-Orderer die Bestellung, während die L2-Validatoren den neuen Zustand berechnen. Die Bereitstellung dieser Bestellfunktion für L2-Besteller stellt jedoch ein Zentralisierungsrisiko dar, bei dem der zentralisierte Besteller seine Macht missbrauchen kann, um Transaktionen willkürlich zu zensieren, die Netzwerkaktivität zu stören und von der MEV-Erfassung zu profitieren.

Obwohl es viele Diskussionen darüber gibt, wie das Risiko einer L2-Zentralisierung verringert werden kann, beispielsweise durch gemeinsame Nutzung, Auslagerung oder auftraggeberbasierte Lösungen, sind unter anderem dezentrale Auftragsgeberlösungen (wie PoA, PoS-Leader-Auswahl, MEV-Auktion und PoE) viele Die Versuche befinden sich noch in der Konzeptionsphase und sind noch lange kein Allheilmittel für dieses Problem. Darüber hinaus scheinen viele L2-Projekte bei der Implementierung einer dezentralen Sortierlösung zurückhaltend zu sein. Arbitrum schlägt beispielsweise einen dezentralen Sortierer als optionale Funktion vor. Zusätzlich zum zentralisierten Bestellerproblem kann es beim L2-Rollup zu Zentralisierungsproblemen aufgrund von Hardwareanforderungen für den gesamten Knoten, Governance-Risiken und Anwendungs-Rollup-Trends kommen.

b) L2-Rollups und das World Computer Trilemma

All diese Zentralisierungsprobleme, die mit der Abhängigkeit von L2-Rollups zur Skalierung von Ethereum einhergehen, offenbaren ein grundlegendes Problem, das „Weltcomputer-Trilemma“, das aus dem klassischen Blockchain-„Trilemma“ abgeleitet ist:

Unterschiedliche Prioritäten für dieses Trilemma führen zu unterschiedlichen Kompromissen:

  • Starker Konsens-Ledger: Erfordert im Wesentlichen eine wiederholte Speicherung und Berechnung und ist daher nicht für die Erweiterung der Speicherung und Berechnung geeignet.
  • Starke Rechenleistung: Bei der Durchführung einer großen Anzahl von Rechen- und Beweisaufgaben muss der Konsens wiederverwendet werden, sodass er nicht für die Speicherung in großem Maßstab geeignet ist.
  • Starke Speicherkapazität: Bei häufigen zufälligen Stichprobenraumbeweisen muss der Konsens wiederverwendet werden, daher ist er nicht für die Berechnung geeignet.

Das traditionelle L2-Schema besteht eigentlich darin, den Weltcomputer modular aufzubauen. Da die verschiedenen Funktionen jedoch nicht nach den oben genannten Prioritäten aufgeteilt sind, behält der Weltcomputer auch bei Skalierung die ursprüngliche Mainframe-Architektur von Ethereum bei. Diese Architektur kann andere Funktionen wie Dezentralisierung und Leistung nicht erfüllen und das Trilemma des Weltcomputers nicht lösen.

Mit anderen Worten: L2-Rollups implementieren tatsächlich die folgenden Funktionen:

  • Modularisierung des Weltcomputers (mehr Experimente auf der Konsensschicht und etwas externes Vertrauen auf den zentralisierten Besteller);
  • Verbesserungen des World Computer-Durchsatzes (wenn auch nicht unbedingt „erweitert“);
  • Offene Innovation des Weltcomputers.

Allerdings bieten L2-Rollups Folgendes nicht:

  • Dezentralisierung des Weltcomputers;
  • Leistungssteigerung des Weltcomputers (die maximale TPS von Rollups zusammen reicht tatsächlich nicht aus und L2 kann unmöglich eine schnellere Endgültigkeit als L1 haben);
  • Berechnung durch den Weltcomputer (dazu gehören Berechnungen, die über die Transaktionsverarbeitung hinausgehen, wie z. B. maschinelles Lernen und Orakel).

Während die Weltcomputerarchitektur über L2- und modulare Blockchains verfügen kann, löst sie das grundlegende Problem nicht. L2 kann das Blockchain-Trilemma lösen, aber nicht das Trilemma des Weltcomputers selbst. Wie wir gesehen haben, reichen die aktuellen Ansätze also nicht aus, um den dezentralen Welt-Supercomputer, den Ethereum ursprünglich geplant hatte, wirklich zu verwirklichen. Wir brauchen Leistungsausbau und Dezentralisierung, nicht Leistungsausbau und schrittweise Dezentralisierung.

2. Designziele der Supercomputer der Welt

Dafür benötigen wir ein Netzwerk, das wirklich allgemeine, intensive Berechnungen (insbesondere maschinelles Lernen und Orakel) lösen kann und gleichzeitig die vollständige Dezentralisierung der Basisschicht-Blockchain beibehält. Darüber hinaus müssen wir sicherstellen, dass das Netzwerk in der Lage ist, intensive Berechnungen wie maschinelles Lernen (ML) zu unterstützen, die direkt im Netzwerk ausgeführt und letztendlich in der Blockchain überprüft werden können. Darüber hinaus müssen wir zusätzlich zu den weltweit vorhandenen Computerimplementierungen ausreichend Speicher und Rechenleistung bereitstellen. Die Ziele und Entwurfsmethoden lauten wie folgt:

a) Berechnungsvoraussetzungen

Um den Anforderungen und Zwecken eines Weltcomputers gerecht zu werden, erweitern wir das von Ethereum beschriebene Konzept eines Weltcomputers und streben die Realisierung eines Weltsupercomputers an.

Der Supercomputer der Welt muss zunächst die Aufgaben erledigen, die Computer jetzt und in Zukunft dezentral erledigen können. Um sich auf die Masseneinführung vorzubereiten, benötigen Entwickler die Supercomputer der Welt, um die Entwicklung und Einführung dezentralen maschinellen Lernens zur Durchführung von Modellinferenzen und -validierungen zu beschleunigen.

Für rechenressourcenintensive Aufgaben wie maschinelles Lernen erfordert das Erreichen eines solchen Ziels nicht nur vertrauensminimierende Computertechniken wie Zero-Knowledge-Proofs, sondern auch eine größere Datenkapazität im dezentralen Netzwerk. Diese können nicht in einem einzelnen P2P-Netzwerk (z. B. einer herkömmlichen Blockchain) erreicht werden.

b) Lösungen für Leistungsengpässe

In den Anfängen der Computertechnik waren unsere Pioniere mit ähnlichen Leistungsengpässen konfrontiert, als sie Kompromisse zwischen Rechenleistung und Speicherkapazität eingingen. Nehmen Sie als Beispiel die kleinste Komponente einer Schaltung.

Wir können die Berechnung mit einer Glühbirne/einem Transistor und die Speicherung mit einem Kondensator vergleichen. In einem Stromkreis benötigt eine Glühbirne einen elektrischen Strom, um Licht auszusenden, ähnlich wie bei einer Rechenaufgabe, für deren Ausführung Berechnungen erforderlich sind. Kondensatoren hingegen speichern Ladung, ähnlich wie Speicher Daten speichern können.

Bei gleicher Spannung und gleichem Strom kann es zu einem Kompromiss bei der Energieverteilung zwischen Glühbirne und Kondensator kommen. Typischerweise erfordern höhere Berechnungen mehr Strom zur Ausführung der Rechenaufgabe und erfordern daher weniger Energie, die vom Kondensator gespeichert werden muss. Größere Kondensatoren können mehr Energie speichern, können jedoch bei höherer Rechenlast zu einer geringeren Rechenleistung führen. Dieser Kompromiss macht es in manchen Fällen unmöglich, Rechenleistung und Speicher zu kombinieren.

In der von Neumann-Computerarchitektur führte dies zu dem Konzept, das Speichergerät von der Zentraleinheit zu trennen. Ähnlich wie die Trennung der Glühbirne vom Kondensator könnte dies den Leistungsengpass der Supercomputersysteme unserer Welt lösen.

Darüber hinaus verwenden herkömmliche verteilte Hochleistungsdatenbanken ein Designschema, das Speicher und Rechenleistung trennt. Dieses Schema wurde übernommen, weil es vollständig mit den Eigenschaften der Supercomputer der Welt kompatibel ist.

c) Neuartige Architekturtopologie

Der Hauptunterschied zwischen modularen Blockchains (einschließlich L2-Rollups) und Weltcomputerarchitekturen ist ihr Zweck:

  • Modulare Blockchain: Ziel ist die Schaffung neuer Blockchains durch Auswahl von Modulen (Konsens, Datenverfügbarkeitsschicht DA, Abwicklung und Ausführung) und deren Kombination zu modularen Blockchains.
  • Welt-Supercomputer: Ziel ist der Aufbau eines globalen dezentralen Computers/Netzwerks durch die Kombination von Netzwerken (Basisschicht-Blockchain, Speichernetzwerk, Computernetzwerk) zu einem Weltcomputer.

Als Alternative schlagen wir vor, dass der spätere Welt-Supercomputer aus drei topologisch heterogenen P2P-Netzwerken bestehen wird, die durch vertrauenswürdige Busse (Konnektoren) wie z. B. wissensfreie Technologie verbunden sind: Konsens-Ledger, Computernetzwerk und Speichernetzwerk. Dieser Grundaufbau ermöglicht es den Supercomputern der Welt, das Computertrilemma der Welt zu lösen, und weitere Komponenten können je nach Bedarf für eine bestimmte Anwendung hinzugefügt werden.

Es ist erwähnenswert, dass topologische Heterogenität nicht nur architektonische und strukturelle Unterschiede, sondern auch grundlegende Unterschiede in den topologischen Formen beinhaltet. Während beispielsweise Ethereum und Cosmos hinsichtlich der Netzwerkschichten und Verbindungen heterogen sind, sind sie hinsichtlich der topologischen Heterogenität (Blockchains) immer noch gleichwertig.

In den Supercomputern der Welt nimmt die Konsens-Ledger-Blockchain die Form einer Blockchain an, und die Knoten nehmen die Form eines vollständigen Diagramms an, während das zkOracle-Netzwerk wie Hyper Oracle ein Netzwerk ohne Ledger ist und die Knoten ein zyklisches Diagramm bilden, während das Netzwerk Die Struktur zum Speichern von Rollups ist eine weitere Variante: Partitionen bilden Subnetze.

Indem wir wissensfreie Beweise als Datenbus verwenden, können wir durch die Verbindung von drei topologisch heterogenen Peer-to-Peer-Netzwerken einen vollständig dezentralen, unaufhaltsamen, erlaubnisfreien und skalierbaren Welt-Supercomputer erreichen.

3. Welt-Supercomputer-Architektur

Ähnlich wie beim Bau eines physischen Computers müssen wir das zuvor erwähnte Konsensnetzwerk, Computernetzwerk und Speichernetzwerk zu einem Welt-Supercomputer zusammensetzen.

Die richtige Auswahl und Verbindung jeder Komponente wird uns dabei helfen, ein Gleichgewicht zwischen dem Konsensbuch, der Rechenleistung und dem Trilemma der Speicherkapazität zu erreichen und letztendlich die Dezentralisierung, hohe Leistung und Sicherheit der Supercomputer der Welt sicherzustellen.

Die Architektur der Supercomputer der Welt wird nach ihren Funktionen wie folgt beschrieben:

Die Knotenstruktur eines weltweiten Supercomputernetzwerks mit Konsens-, Rechen- und Speichernetzwerk ähnelt der folgenden:

Um das Netzwerk zu starten, werden die Knoten des weltweiten Supercomputers auf der dezentralen Infrastruktur von Ethereum basieren. Knoten mit hoher Rechenleistung können dem Computernetzwerk von zkOracle beitreten, um Beweise für allgemeine Berechnungen oder maschinelles Lernen zu erstellen, während Knoten mit hoher Speicherkapazität dem Speichernetzwerk von EthStorage beitreten können.

Die obigen Beispiele beschreiben Knoten, auf denen sowohl Ethereum- als auch Rechen-/Speichernetzwerke laufen. Knoten, die nur Rechen-/Speichernetzwerke betreiben, können ohne Vertrauen auf die neuesten Blöcke von Ethereum zugreifen oder die Verfügbarkeit gespeicherter Daten über einen Bus wissensfreier Technologien wie zkPoS und zkNoSQL nachweisen.

a) Ethereum-Konsens

Derzeit nutzt das Konsensnetzwerk der Supercomputer der Welt ausschließlich Ethereum. Ethereum verfügt über einen starken sozialen Konsens und Sicherheit auf Netzwerkebene, wodurch ein dezentraler Konsens gewährleistet wird.

Die Supercomputer der Welt basieren auf einer Konsens-Ledger-zentrierten Architektur. Das Konsensbuch dient zwei Hauptzwecken:

  • Konsens für das gesamte System schaffen;
  • Definieren Sie den CPU-Taktzyklus mit dem Blockintervall.

Im Vergleich zu Computernetzwerken oder Speichernetzwerken kann Ethereum weder eine große Anzahl von Computeraufgaben gleichzeitig bewältigen noch große Mengen allgemeiner Daten speichern.

Unter den Supercomputern der Welt ist Ethereum ein Konsensnetzwerk zum Speichern von Daten wie L2 Rollup, um einen Konsens für das Computer- und Speichernetzwerk zu erzielen und Schlüsseldaten zu laden, damit das Computernetzwerk weitere Off-Chain-Berechnungen durchführen kann.

b) Store-Rollup

Proto-Danksharding und Danksharding von Ethereum sind im Wesentlichen Möglichkeiten, das Konsensnetzwerk zu skalieren. Um die von den Supercomputern der Welt benötigte Speicherkapazität zu erreichen, benötigen wir eine Lösung, die sowohl in Ethereum integriert ist als auch die dauerhafte Speicherung großer Datenmengen unterstützt.

Speicher-Rollups wie EthStorage skalieren Ethereum im Wesentlichen für massiven Speicher. Da rechenressourcenintensive Anwendungen wie maschinelles Lernen außerdem große Speichermengen benötigen, um auf physischen Computern ausgeführt zu werden, ist es wichtig zu beachten, dass der „Speicher“ von Ethereum nicht überskaliert werden kann. Speicher-Rollups sind für den „Austausch“ erforderlich, der es den Supercomputern der Welt ermöglicht, rechenintensive Aufgaben auszuführen.

Darüber hinaus bietet EthStorage ein web3://-Zugriffsprotokoll (ERC-4804), das dem nativen URI oder der Speicherressourcenadressierung der Supercomputer der Welt ähnelt.

c) zkOracle-Computernetzwerk

Das Rechennetzwerk ist das wichtigste Element der Supercomputer der Welt, denn es bestimmt die Gesamtleistung. Es muss in der Lage sein, komplexe Berechnungen wie Orakel oder maschinelles Lernen zu bewältigen, und sollte in Bezug auf den Zugriff auf und die Verarbeitung von Daten schneller sein als Konsens- und Speichernetzwerke.

Das zkOracle-Netzwerk ist ein dezentrales und vertrauensminimiertes Computernetzwerk, das beliebige Berechnungen verarbeiten kann. Jedes laufende Programm generiert einen ZK-Beweis, der bei Verwendung leicht durch Konsens (Ethereum) oder andere Komponenten verifiziert werden kann.

Hyper Oracle ist ein Netzwerk von zkOracles, das auf zkWASM und EZKL basiert und jede beliebige Berechnung mithilfe von Proof-of-Execution-Traces ausführen kann.

Das zkOracle-Netzwerk ist eine Blockchain ohne Ledger (kein globaler Status), die der Kettenstruktur der ursprünglichen Blockchain (Ethereum) folgt, aber als Computernetzwerk ohne Ledger arbeitet. Das zkOracle-Netzwerk garantiert keine rechnerische Gültigkeit durch erneute Ausführung wie herkömmliche Blockchains; stattdessen bietet es rechnerische Überprüfbarkeit durch generierte Beweise. Das ledgerlose Design und die dedizierte Knoteneinrichtung für die Datenverarbeitung ermöglichen es zkOracle-Netzwerken (wie Hyper Oracle), sich auf leistungsstarkes und vertrauensminimiertes Computing zu konzentrieren. Das Ergebnis der Berechnung wird direkt an das Konsensnetzwerk ausgegeben, anstatt einen neuen Konsens zu generieren.

Im Computernetzwerk von zkOracle wird jede Computereinheit oder ausführbare Datei durch einen zkGraph dargestellt. Diese zkGraphs definieren das Berechnungs- und Beweisgenerierungsverhalten, genau wie intelligente Verträge die Berechnung eines Konsensnetzwerks definieren.

I. Allgemeines Off-Chain-Computing

Das zkGraph-Programm in der Berechnung von zkOracle kann ohne externen Stack für zwei Hauptanwendungsfälle verwendet werden:

  • Indizierung (Zugriff auf Blockchain-Daten);
  • Automatisierung (automatisierte Smart-Contract-Aufrufe);
  • Jede andere Off-Chain-Berechnung.

Diese beiden Fälle können die Middleware- und Infrastrukturanforderungen jedes Smart-Contract-Entwicklers erfüllen. Dies bedeutet, dass Sie als Entwickler des Supercomputers der Welt den gesamten dezentralen End-to-End-Entwicklungsprozess durchlaufen können, wenn Sie eine vollständige dezentrale Anwendung erstellen, einschließlich intelligenter Verträge in der Kette im Konsensnetzwerk und Ketten im Computernetzwerk Berechnung.

II. ML/KI-Berechnungen

Um eine Akzeptanz im Internet-Maßstab zu erreichen und jedes Anwendungsszenario zu unterstützen, müssen die Supercomputer der Welt maschinelles Lernen dezentral unterstützen.

Durch wissensfreie Technologie können maschinelles Lernen und künstliche Intelligenz in die Supercomputer der Welt integriert und im Konsensnetzwerk von Ethereum verifiziert werden, um echtes On-Chain-Computing zu erreichen.

In diesem Fall kann zkGraph mit externen Technologie-Stacks verbunden werden und so zkML selbst mit dem Rechennetzwerk der Supercomputer der Welt verbinden. Dies ermöglicht allen Arten von zkML-Anwendungen Folgendes:

  • ML/KI zum Schutz der Privatsphäre der Benutzer;
  • ML/KI zum Schutz der Privatsphäre von Modellen;
  • ML/KI mit Recheneffizienz.

Um die Rechenleistung der Supercomputer der Welt durch maschinelles Lernen und künstliche Intelligenz zu erreichen, wird zkGraph mit den folgenden fortschrittlichen zkML-Technologie-Stacks kombiniert und ihnen so eine direkte Integration in Konsensnetzwerke und Speichernetzwerke ermöglicht.

  • EZKL: Führen Sie Inferenzen in zk-snark für Deep-Learning-Modelle und andere Rechendiagramme durch.
  • Rest: Schnelle maschinelle Lernvorgänge in Halo2 Prover.
  • circomlib-ml: Circom-Schaltkreisbibliothek für maschinelles Lernen.

e) zk als Datenbus

Da wir nun über alle Grundkomponenten des Supercomputers der Welt verfügen, benötigen wir eine letzte Komponente, um sie zu verbinden. Wir brauchen einen überprüfbaren und vertrauensminimierten Bus, um zwischen Komponenten zu kommunizieren und zu koordinieren.

Hyper Oracle zkPoS ist ein geeigneter Kandidat für den zk-Bus für die Supercomputer der Welt, die Ethereum als Konsensnetzwerk nutzen. zkPoS ist eine Schlüsselkomponente von zkOracle, die den Konsens von Ethereum über ZK überprüft, sodass der Konsens von Ethereum in jeder Umgebung verbreitet und überprüft werden kann.

Als dezentraler und vertrauensminimierter Bus kann zkPoS alle Komponenten der Supercomputer der Welt über ZK verbinden, und zwar nahezu ohne Aufwand für Verifizierungsberechnungen. Solange es einen Bus wie zkPoS gibt, können Daten innerhalb der Supercomputer der Welt frei fließen.

Wenn der Konsens von Ethereum als erste Konsensdaten der Supercomputer der Welt von der Konsensschicht an den Bus übergeben werden kann, kann zkPoS dies durch Zustands-/Ereignis-/Transaktionsnachweise beweisen. Die generierten Daten können dann an das Rechennetzwerk des zkOracle-Netzwerks übergeben werden.

Darüber hinaus entwickelt EthStorage für den Bus des Speichernetzwerks zkNoSQL, um Beweise für die Datenverfügbarkeit zu ermöglichen, sodass andere Netzwerke schnell überprüfen können, ob ein BLOB über genügend Replikate verfügt.

f) Ein weiterer Fall: Bitcoin als Konsensnetzwerk

Wie viele souveräne Rollups der zweiten Ebene kann ein dezentrales Netzwerk wie Bitcoin als Konsensnetzwerk dienen, das den Supercomputern der Welt zugrunde liegt.

Um einen solchen Weltsupercomputer zu unterstützen, müssen wir den zkPoS-Bus ersetzen, da Bitcoin ein Blockchain-Netzwerk ist, das auf dem PoW-Mechanismus basiert.

Wir können ZeroSync verwenden, um zk als Bus des Bitcoin-Weltsupercomputers zu implementieren. ZeroSync ähnelt „zkPoW“, das den Bitcoin-Konsens durch wissensfreie Beweise synchronisiert und es jeder Computerumgebung ermöglicht, den neuesten Bitcoin-Status innerhalb von Millisekunden zu überprüfen und zu erhalten.

g) Arbeitsablauf

Im Folgenden finden Sie einen Überblick über den Transaktionsprozess des weltweiten Supercomputers auf Basis von Ethereum, unterteilt in mehrere Schritte:

  • Konsens: Verwenden Sie Ethereum, um einen Transaktionskonsens zu verarbeiten und zu erreichen.
  • Berechnung: Das zkOracle-Netzwerk führt relevante Off-Chain-Berechnungen durch (definiert durch zkGraph, das von EthStorage geladen wird), indem es Beweise und Konsensdaten, die von zkPoS als Bus bereitgestellt werden, schnell überprüft.
  • Konsens: In einigen Fällen, wie etwa bei Automatisierung und maschinellem Lernen, wird das Computernetzwerk Daten und Transaktionen durch Nachweise an Ethereum oder EthStorage zurückleiten.
  • Speicherung: Zum Speichern großer Datenmengen von Ethereum (z. B. NFT-Metadaten) fungiert zkPoS als Messenger zwischen Ethereum-Smart-Verträgen und EthStorage.

Während des gesamten Prozesses spielt der Bus eine entscheidende Rolle bei der Verbindung der einzelnen Schritte:

  • Wenn Konsensdaten von Ethereum an die Datenverarbeitung des zkOracle-Netzwerks oder den Speicher von EthStorage weitergeleitet werden, generieren zkPoS und Zustands-/Ereignis-/Transaktionsnachweise Beweise, die der Empfänger schnell überprüfen kann, um die genauen Daten, wie z. B. die entsprechende Transaktion, zu erhalten.
  • Wenn das zkOracle-Netzwerk Daten zur Berechnung aus dem Speicher laden muss, verwendet es zkPoS, um auf die Adresse der Daten aus dem Konsensnetzwerk zuzugreifen, und verwendet dann zkNoSQL, um die tatsächlichen Daten aus dem Speicher abzurufen.
  • Wenn Daten aus dem zkOracle-Netzwerk oder Ethereum in der endgültigen Ausgabeform angezeigt werden müssen, generiert zkPoS Beweise für Clients (z. B. Browser) zur schnellen Überprüfung.

abschließend

Bitcoin hat eine solide Grundlage für die Schaffung des Weltcomputers v0 gelegt und das „Weltbuch“ erfolgreich aufgebaut. Anschließend demonstrierte Ethereum effektiv das „Weltcomputer“-Paradigma, indem es einen besser programmierbaren Smart-Contract-Mechanismus einführte. Um eine Dezentralisierung zu erreichen, nutzen wir die inhärente Vertrauenslosigkeit der Kryptographie, die natürlichen wirtschaftlichen Anreize von MEV, die Förderung der Massenakzeptanz, das Potenzial der ZK-Technologie und den Bedarf an dezentralem Allzweck-Computing, einschließlich maschinellem Lernen, und führen so zur Entstehung der Supercomputer der Welt ist notwendig geworden.

Unsere vorgeschlagene Lösung wird einen Welt-Supercomputer aufbauen, indem topologisch heterogene P2P-Netzwerke mithilfe wissensfreier Beweise verbunden werden. Als Konsensbuch wird Ethereum den Grundkonsens bereitstellen und das Blockintervall als Taktzyklus des gesamten Systems verwenden. Als Speichernetzwerk speichert ein Speicher-Rollup große Datenmengen und stellt URI-Standards für den Zugriff auf die Daten bereit. Als Computernetzwerk wird das zkOracle-Netzwerk ressourcenintensive Berechnungen durchführen und überprüfbare Berechnungsnachweise generieren. Als Datenbus wird die Zero-Knowledge-Proof-Technologie verschiedene Komponenten verbinden und die Verknüpfung und Überprüfung von Daten und Konsens ermöglichen.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare