Para lograr la descentralización, aproveche la falta de confianza inherente de la criptografía, los incentivos económicos naturales de MEV para impulsar la adopción masiva, el potencial de la tecnología ZK y la necesidad de computación de propósito general descentralizada, incluido el aprendizaje automático, el surgimiento de la las supercomputadoras se han vuelto necesarias.
Título original: "Hacia la supercomputadora mundial"
Escrito por: msfew, Kartin, Xiaohang Yu, Qi Zhou
Compilación: Deep Tide TechFlow
introducir
¿Qué tan cerca está Ethereum de convertirse eventualmente en la supercomputadora de ese mundo?
Desde el algoritmo de consenso peer-to-peer de Bitcoin hasta el EVM de Ethereum y el concepto de una nación en red, uno de los objetivos de la comunidad blockchain siempre ha sido construir una supercomputadora mundial, más específicamente, un estado unificado descentralizado, imparable, sin confianza y escalable. máquina.
Si bien se sabe desde hace mucho tiempo que todo esto es teóricamente posible, la mayoría de los esfuerzos en curso hasta la fecha han sido muy fragmentados y tienen serias compensaciones y limitaciones.
En este artículo, exploramos algunas de las compensaciones y limitaciones que enfrentan los intentos existentes de construir una computadora mundial, luego analizamos los componentes necesarios para tal máquina y, finalmente, proponemos una arquitectura de supercomputadora mundial novedosa.
Una nueva posibilidad, digna de nuestra comprensión.
1. Limitaciones del método actual
a) Paquetes acumulados de Ethereum y L2
Ethereum fue el primer intento real de construir la supercomputadora del mundo y posiblemente el más exitoso. Sin embargo, durante su desarrollo, Ethereum priorizó en gran medida la descentralización y la seguridad sobre la escalabilidad y el rendimiento. Entonces, aunque Ethereum regular y confiable está lejos de ser la supercomputadora del mundo, simplemente no escala.
La solución actual es L2 Rollups, que se ha convertido en la solución de escalamiento más ampliamente adoptada para mejorar el rendimiento de las computadoras en el mundo Ethereum. Como una capa adicional construida sobre Ethereum, L2 Rollups ofrece ventajas significativas y cuenta con el respaldo de la comunidad.
Si bien existen múltiples definiciones de acumulaciones L2, generalmente se acepta que las acumulaciones L2 son redes con dos características clave: disponibilidad de datos en la cadena y ejecución de transacciones fuera de la cadena en Ethereum u otras redes subyacentes. Básicamente, el estado histórico o los datos de transacciones de entrada son de acceso público y están comprometidos con la verificación en Ethereum, pero todas las transacciones individuales y las transiciones de estado se eliminan de la red principal.
Si bien los L2 Rollups han mejorado en gran medida el rendimiento de estas "computadoras globales", muchas de ellas tienen un riesgo sistémico de centralización, lo que socava fundamentalmente los principios de la cadena de bloques como red descentralizada. Esto se debe a que la ejecución fuera de la cadena implica no solo transiciones de estado individuales, sino también la secuenciación o el procesamiento por lotes de estas transacciones. En la mayoría de los casos, el ordenador L2 hace el pedido, mientras que los validadores L2 calculan el nuevo estado. Sin embargo, proporcionar esta capacidad de pedido a los encargados de L2 crea un riesgo de centralización, donde el encargado centralizado puede abusar de su poder para censurar transacciones arbitrariamente, interrumpir la actividad de la red y beneficiarse de la captura de MEV.
Aunque ha habido muchas discusiones sobre las formas de reducir el riesgo de la centralización de L2, como compartir, subcontratar o soluciones basadas en pedidos, soluciones de pedidos descentralizados (como PoA, selección de líder de PoS, subasta de MEV y PoE), entre ellos Muchos los intentos aún se encuentran en la etapa de diseño conceptual y están lejos de ser una panacea para este problema. Además, muchos proyectos L2 parecen reacios a implementar una solución de clasificación descentralizada. Por ejemplo, Arbitrum propone un clasificador descentralizado como característica opcional. Además del problema del pedido centralizado, L2 Rollup puede tener problemas de centralización debido a los requisitos de hardware de nodo completo, el riesgo de gobierno y las tendencias de acumulación de aplicaciones.
b) L2 Rollups y el Trilema Informático Mundial
Todos estos problemas de centralización que surgen al depender de L2 Rollups para escalar Ethereum revelan un problema fundamental, el "trilema informático mundial", que se deriva del clásico "trilema" de blockchain:
Diferentes prioridades para este trilema darán como resultado diferentes compensaciones:
Libro mayor de consenso fuerte: esencialmente requiere almacenamiento y cálculo repetidos, por lo que no es adecuado para expandir el almacenamiento y el cálculo.
Poder de cómputo fuerte: es necesario reutilizar el consenso cuando se realiza una gran cantidad de tareas de cómputo y prueba, por lo que no es adecuado para el almacenamiento a gran escala.
Gran capacidad de almacenamiento: es necesario reutilizar el consenso cuando se realizan frecuentes pruebas de espacio de muestreo aleatorio, por lo que no es adecuado para la informática.
El esquema L2 tradicional es en realidad construir la computadora mundial de forma modular. Sin embargo, dado que las diferentes funciones no se dividen en función de las prioridades antes mencionadas, World Computer mantiene la arquitectura de mainframe original de Ethereum incluso con la escala. Esta arquitectura no puede satisfacer otras funciones como la descentralización y el rendimiento, y no puede resolver el trilema de la computadora mundial.
En otras palabras, L2 Rollups implementa las siguientes funciones:
Modularización de la computadora mundial (más experimentos en la capa de consenso y algo de confianza externa en el ordenador centralizado);
Mejoras en el rendimiento de World Computer (aunque no estrictamente "ampliadas");
Innovación abierta de la informática mundial.
Sin embargo, L2 Rollups no proporciona:
Descentralización de la informática mundial;
Mejora del rendimiento de la computadora mundial (el TPS máximo combinado de Rollups en realidad no es suficiente, y L2 no puede tener una finalidad más rápida que L1);
Computación por World Computer (esto implica computación más allá del procesamiento de transacciones, como el aprendizaje automático y los oráculos).
Si bien la arquitectura informática mundial puede tener L2 y cadenas de bloques modulares, no resuelve el problema fundamental. L2 puede resolver el trilema de blockchain, pero no el trilema de la computadora mundial en sí. Entonces, como hemos visto, los enfoques actuales no son suficientes para realmente realizar la supercomputadora mundial descentralizada que Ethereum imaginó originalmente. Necesitamos expansión del desempeño y descentralización, no expansión del desempeño y descentralización gradual.
2. Objetivos de diseño de las supercomputadoras del mundo
Para esto, necesitamos una red que pueda resolver cálculos intensivos verdaderamente de propósito general (especialmente el aprendizaje automático y los oráculos), al tiempo que conserva la descentralización total de la cadena de bloques de la capa base. Además, debemos asegurarnos de que la red sea capaz de admitir cálculos intensivos, como el aprendizaje automático (ML), que se puede ejecutar directamente en la red y, en última instancia, verificar en la cadena de bloques. Además, debemos proporcionar suficiente almacenamiento y poder de cómputo además de las implementaciones informáticas mundiales existentes, los objetivos y los métodos de diseño son los siguientes:
a) Requisitos de cálculo
Para satisfacer las necesidades y los propósitos de una computadora mundial, ampliamos el concepto de una computadora mundial descrito por Ethereum y apuntamos a lograr una supercomputadora mundial.
La supercomputadora del mundo primero necesita completar las tareas que las computadoras pueden completar ahora y en el futuro de manera descentralizada. Para prepararse para la adopción masiva, los desarrolladores necesitan las supercomputadoras del mundo para acelerar el desarrollo y la adopción del aprendizaje automático descentralizado para ejecutar la inferencia y validación de modelos.
Para tareas de uso intensivo de recursos informáticos como el aprendizaje automático, lograr tal objetivo requiere no solo técnicas informáticas que minimizan la confianza, como pruebas de conocimiento cero, sino también una mayor capacidad de datos en la red descentralizada. Estos no se pueden lograr en una sola red P2P (como la cadena de bloques tradicional).
b) Soluciones a cuellos de botella de desempeño
En los primeros días de la informática, nuestros pioneros se enfrentaban a cuellos de botella de rendimiento similares al hacer concesiones entre la potencia informática y la capacidad de almacenamiento. Tome el componente más pequeño de un circuito como ejemplo.
Podemos comparar el cálculo con una bombilla/transistor y el almacenamiento con un condensador. En un circuito, una bombilla requiere una corriente eléctrica para emitir luz, similar a una tarea computacional que requiere computación para realizarse. Los condensadores, por otro lado, almacenan carga, de manera similar a cómo el almacenamiento puede almacenar datos.
Para el mismo voltaje y corriente, puede haber una compensación en la distribución de energía entre la bombilla y el capacitor. Por lo general, los cálculos más altos requieren más corriente para realizar la tarea de cálculo y, por lo tanto, requieren que el capacitor almacene menos energía. Los capacitores más grandes pueden almacenar más energía, pero pueden resultar en un rendimiento computacional más bajo con cargas computacionales más altas. Esta compensación hace que sea imposible combinar computación y almacenamiento en algunos casos.
En la arquitectura informática de von Neumann, condujo al concepto de separar el dispositivo de almacenamiento de la unidad central de procesamiento. Similar a separar la bombilla del capacitor, esto podría resolver el cuello de botella en el rendimiento de los sistemas de supercomputadoras de nuestro mundo.
Además, las bases de datos distribuidas tradicionales de alto rendimiento adoptan un esquema de diseño que separa el almacenamiento y la computación. Este esquema fue adoptado porque es totalmente compatible con las características de las supercomputadoras del mundo.
c) Topología de arquitectura novedosa
La principal diferencia entre las cadenas de bloques modulares (incluidos L2 Rollups) y las arquitecturas informáticas mundiales es su propósito:
Cadena de bloques modular: tiene como objetivo crear nuevas cadenas de bloques seleccionando módulos (consenso, capa de disponibilidad de datos DA, liquidación y ejecución) y combinándolos en cadenas de bloques modulares.
Supercomputadora mundial: tiene como objetivo construir una computadora/red global descentralizada mediante la combinación de redes (cadena de bloques de capa base, red de almacenamiento, red informática) en una computadora mundial.
Proponemos una alternativa de que la eventual supercomputadora mundial consistirá en tres redes P2P topológicamente heterogéneas conectadas por buses (conectores) sin confianza, como la tecnología de prueba de conocimiento cero: libro mayor de consenso, red informática y red de almacenamiento. Esta configuración básica permite que las supercomputadoras del mundo resuelvan el trilema informático mundial, y se pueden agregar otros componentes según sea necesario para una aplicación en particular.
Vale la pena señalar que la heterogeneidad topológica implica no solo diferencias arquitectónicas y estructurales, sino también diferencias fundamentales en las formas topológicas. Por ejemplo, mientras que Ethereum y Cosmos son heterogéneos en términos de interconexiones y capas de red, siguen siendo equivalentes en términos de heterogeneidad topológica (cadenas de bloques).
En las supercomputadoras del mundo, la cadena de bloques del libro mayor de consenso adopta la forma de cadena de bloques y los nodos adoptan la forma de un gráfico completo, mientras que la red zkOracle como Hyper Oracle es una red sin libros mayores y los nodos forman un gráfico cíclico, mientras que la red La estructura para almacenar Rollup es otra variante, las particiones forman subredes.
Mediante el uso de pruebas de conocimiento cero como bus de datos, podemos lograr una supercomputadora mundial totalmente descentralizada, imparable, sin permisos y escalable al conectar tres redes peer-to-peer topológicamente heterogéneas.
3. Arquitectura mundial de supercomputadoras
De manera similar a la construcción de una computadora física, debemos ensamblar la red de consenso, la red informática y la red de almacenamiento mencionadas anteriormente en una supercomputadora mundial.
La selección y conexión adecuada de cada componente nos ayudará a lograr un equilibrio entre el libro de consenso, el poder de cómputo y el trilema de la capacidad de almacenamiento y, en última instancia, garantizar la descentralización, el alto rendimiento y la seguridad de las supercomputadoras del mundo.
La arquitectura de las supercomputadoras del mundo se describe a continuación según sus funciones:
La estructura de nodos de una red mundial de supercomputadoras con red de consenso, computación y almacenamiento se parece a la siguiente:
Para lanzar la red, los nodos de la supercomputadora mundial se basarán en la infraestructura descentralizada de Ethereum. Los nodos con alto rendimiento informático pueden unirse a la red informática de zkOracle para generar pruebas para informática general o aprendizaje automático, mientras que los nodos con alta capacidad de almacenamiento pueden unirse a la red de almacenamiento de EthStorage.
Los ejemplos anteriores describen nodos que ejecutan Ethereum y redes de cómputo/almacenamiento. Para los nodos que solo ejecutan redes informáticas/de almacenamiento, pueden acceder a los últimos bloques de Ethereum o probar la disponibilidad de los datos almacenados a través de un bus de tecnologías de prueba de conocimiento cero como zkPoS y zkNoSQL sin confianza.
a) Consenso de Ethereum
Actualmente, la red de consenso de las supercomputadoras del mundo utiliza exclusivamente Ethereum. Ethereum tiene un fuerte consenso social y seguridad a nivel de red, lo que garantiza un consenso descentralizado.
Las supercomputadoras del mundo se basan en una arquitectura centrada en el libro mayor de consenso. El libro mayor de consenso tiene dos propósitos principales:
Proporcionar consenso para todo el sistema;
Definir el ciclo de reloj de la CPU con el intervalo de bloque.
En comparación con las redes informáticas o las redes de almacenamiento, Ethereum no puede manejar una gran cantidad de tareas informáticas al mismo tiempo, ni puede almacenar grandes cantidades de datos de propósito general.
Entre las supercomputadoras del mundo, Ethereum es una red de consenso para almacenar datos, como L2 Rollup, para llegar a un consenso para la red de computación y almacenamiento, y para cargar datos clave para que la red de computación pueda realizar más cálculos fuera de la cadena.
b) Paquete acumulativo de almacenamiento
Proto-danksharding y Danksharding de Ethereum son esencialmente formas de escalar la red de consenso. Para lograr la capacidad de almacenamiento requerida por las supercomputadoras del mundo, necesitamos una solución que sea nativa de Ethereum y admita el almacenamiento permanente de grandes cantidades de datos.
Los paquetes acumulativos de almacenamiento, como EthStorage, esencialmente escalan Ethereum para almacenamiento masivo. Además, dado que las aplicaciones que consumen muchos recursos computacionales, como el aprendizaje automático, requieren grandes cantidades de memoria para ejecutarse en computadoras físicas, es importante tener en cuenta que la "memoria" de Ethereum no se puede sobredimensionar. Los paquetes acumulativos de almacenamiento son necesarios para el "intercambio" que permite a las supercomputadoras del mundo ejecutar tareas computacionalmente intensivas.
Además, EthStorage proporciona un protocolo de acceso web3:// (ERC-4804), que es similar al URI nativo o al direccionamiento de recursos de almacenamiento de las supercomputadoras del mundo.
c) red informática zkOracle
La red informática es el elemento más importante de las supercomputadoras del mundo porque determina el rendimiento general. Debe ser capaz de manejar cálculos complejos como oráculos o aprendizaje automático, y debe ser más rápido que las redes de consenso y almacenamiento en términos de acceso y procesamiento de datos.
La red zkOracle es una red informática descentralizada y de confianza minimizada capaz de procesar cálculos arbitrarios. Cualquier programa en ejecución genera una prueba ZK, que cuando se usa puede verificarse fácilmente por consenso (Ethereum) u otros componentes.
Hyper Oracle es una red de zkOracles, impulsada por zkWASM y EZKL, que puede ejecutar cualquier cálculo utilizando seguimientos de prueba de ejecución.
La red zkOracle es una cadena de bloques sin libro mayor (sin estado global) que sigue la estructura de cadena de la cadena de bloques original (Ethereum), pero funciona como una red informática sin libros mayores. La red zkOracle no garantiza la validez computacional a través de la reejecución como las cadenas de bloques tradicionales, sino que proporciona verificabilidad computacional a través de pruebas generadas. El diseño sin libro mayor y la configuración de nodos dedicados para la informática permite que las redes zkOracle (como Hyper Oracle) se centren en la informática de alto rendimiento y confianza minimizada. El resultado del cálculo se envía directamente a la red de consenso en lugar de generar un nuevo consenso.
En la red informática de zkOracle, cada unidad informática o archivo ejecutable está representado por un zkGraph. Estos zkGraphs definen el cómputo y el comportamiento de generación de pruebas, al igual que los contratos inteligentes definen el cómputo de una red de consenso.
I. Informática general fuera de la cadena
El programa zkGraph en el cálculo de zkOracle se puede usar sin una pila externa para dos casos de uso principales:
indexación (acceso a datos de blockchain);
Automatización (llamadas de contrato inteligente automatizadas);
Cualquier otro cálculo fuera de la cadena.
Estos dos casos pueden cumplir con los requisitos de middleware e infraestructura de cualquier desarrollador de contratos inteligentes. Esto significa que, como desarrollador de la supercomputadora mundial, puede pasar por todo el proceso de desarrollo descentralizado de extremo a extremo al crear una aplicación descentralizada completa, incluidos los contratos inteligentes en la cadena en la red de consenso y las cadenas en la red informática. calcular.
II. Cálculos de ML/IA
Para lograr la adopción a escala de Internet y admitir cualquier escenario de aplicación, las supercomputadoras del mundo deben admitir la computación de aprendizaje automático de manera descentralizada.
A través de la tecnología de prueba de conocimiento cero, el aprendizaje automático y la inteligencia artificial pueden integrarse en las supercomputadoras del mundo y verificarse en la red de consenso de Ethereum para lograr una computación en cadena real.
En este caso, zkGraph se puede conectar a pilas de tecnología externa, combinando así el propio zkML con la red informática de las supercomputadoras del mundo. Esto permite que todos los tipos de aplicaciones zkML:
ML/AI para la protección de la privacidad del usuario;
ML/AI para la protección de la privacidad del modelo;
ML/AI con eficiencia computacional.
Para lograr el poder de cómputo de inteligencia artificial y aprendizaje automático de las supercomputadoras del mundo, zkGraph se combinará con las siguientes pilas de tecnología zkML avanzada, brindándoles integración directa con redes de consenso y redes de almacenamiento.
EZKL: realiza inferencias en zk-snark para modelos de aprendizaje profundo y otros gráficos computacionales.
Resto: Operaciones rápidas de aprendizaje automático en Halo2 Prover.
circomlib-ml: biblioteca de circuitos circom para aprendizaje automático.
e) zk como bus de datos
Ahora que tenemos todos los componentes básicos de la supercomputadora del mundo, necesitamos un componente final para conectarlos. Necesitamos un bus verificable y de confianza minimizada para comunicar y coordinar entre componentes.
Hyper Oracle zkPoS es un candidato adecuado para el zk Bus para las supercomputadoras del mundo que utilizan Ethereum como red de consenso. zkPoS es un componente clave de zkOracle, que verifica el consenso de Ethereum a través de ZK, para que el consenso de Ethereum pueda propagarse y verificarse en cualquier entorno.
Como bus descentralizado y de confianza minimizada, zkPoS puede conectar todos los componentes de las supercomputadoras del mundo a través de ZK, casi sin sobrecarga de cálculo de verificación. Mientras haya un bus como zkPoS, los datos pueden fluir libremente dentro de las supercomputadoras del mundo.
Cuando el consenso de Ethereum se puede pasar de la capa de consenso al bus como los datos de consenso iniciales de las supercomputadoras del mundo, zkPoS puede probarlo a través de prueba de estado/evento/transacción. Los datos generados luego pueden pasarse a la red informática de la red zkOracle.
Además, para el bus de la red de almacenamiento, EthStorage está desarrollando zkNoSQL para permitir pruebas de disponibilidad de datos, lo que permite que otras redes verifiquen rápidamente que un BLOB tiene suficientes réplicas.
f) Otro caso: Bitcoin como red de consenso
Al igual que muchos paquetes acumulativos soberanos de segunda capa, una red descentralizada como Bitcoin puede servir como la red de consenso que sustenta las supercomputadoras del mundo.
Para admitir una supercomputadora mundial de este tipo, debemos reemplazar el bus zkPoS, porque Bitcoin es una red de cadena de bloques basada en el mecanismo PoW.
Podemos usar ZeroSync para implementar zk como el bus de la supercomputadora mundial Bitcoin. ZeroSync es similar a "zkPoW", que sincroniza el consenso de Bitcoin a través de pruebas de conocimiento cero, lo que permite que cualquier entorno informático verifique y obtenga el estado de Bitcoin más reciente en milisegundos.
g) Flujo de trabajo
La siguiente es una descripción general del proceso de transacción de la supercomputadora mundial basada en Ethereum, dividida en varios pasos:
Consenso: las transacciones se procesan y se alcanza un consenso utilizando Ethereum.
Cómputo: la red zkOracle realiza cálculos relevantes fuera de la cadena (definidos por zkGraph cargado desde EthStorage) mediante la verificación rápida de pruebas y datos de consenso entregados por zkPoS como un bus.
Consenso: en algunos casos, como la automatización y el aprendizaje automático, la red informática pasará datos y transacciones a Ethereum o EthStorage a través de pruebas.
Almacenamiento: para almacenar grandes cantidades de datos de Ethereum (como metadatos NFT), zkPoS actúa como mensajero entre los contratos inteligentes de Ethereum y EthStorage.
A lo largo del proceso, el autobús juega un papel vital en la conexión de cada paso:
Cuando los datos de consenso se pasan de Ethereum a la computación de la red zkOracle o al almacenamiento de EthStorage, zkPoS y las pruebas de estado/evento/transacción generan pruebas que el receptor puede verificar rápidamente para obtener los datos exactos, como la transacción correspondiente.
Cuando la red zkOracle necesita cargar datos del almacenamiento para el cálculo, usa zkPoS para acceder a la dirección de los datos de la red de consenso y luego usa zkNoSQL para obtener los datos reales del almacenamiento.
Cuando los datos de la red zkOracle o Ethereum deben mostrarse en el formulario de salida final, zkPoS genera pruebas para los clientes (como navegadores) para una verificación rápida.
en conclusión
Bitcoin ha sentado una base sólida para la creación de la computadora mundial v0 y construyó con éxito el "libro mayor mundial". Posteriormente, Ethereum demostró efectivamente el paradigma de la "computadora mundial" al introducir un mecanismo de contrato inteligente más programable. Para lograr la descentralización, aproveche la falta de confianza inherente de la criptografía, los incentivos económicos naturales de MEV, impulse la adopción masiva, el potencial de la tecnología ZK y la necesidad de computación de propósito general descentralizada, incluido el aprendizaje automático, el surgimiento de las supercomputadoras del mundo. se ha vuelto necesario.
Nuestra solución propuesta construirá una supercomputadora mundial mediante la conexión de redes P2P topológicamente heterogéneas utilizando pruebas de conocimiento cero. Como libro mayor de consenso, Ethereum proporcionará el consenso básico y utilizará el intervalo de bloque como el ciclo de reloj de todo el sistema. Como red de almacenamiento, un paquete acumulativo de almacenamiento almacenará grandes cantidades de datos y proporcionará estándares de URI para acceder a los datos. Como red informática, la red zkOracle ejecutará cálculos con uso intensivo de recursos y generará pruebas de cálculo verificables. Como un bus de datos, la tecnología de prueba de conocimiento cero conectará varios componentes y permitirá que los datos y el consenso se vinculen y verifiquen.
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
Hacia la supercomputadora del mundo: un nuevo paradigma para la ejecución descentralizada a hiperescala
Título original: "Hacia la supercomputadora mundial"
Escrito por: msfew, Kartin, Xiaohang Yu, Qi Zhou
Compilación: Deep Tide TechFlow
introducir
¿Qué tan cerca está Ethereum de convertirse eventualmente en la supercomputadora de ese mundo?
Desde el algoritmo de consenso peer-to-peer de Bitcoin hasta el EVM de Ethereum y el concepto de una nación en red, uno de los objetivos de la comunidad blockchain siempre ha sido construir una supercomputadora mundial, más específicamente, un estado unificado descentralizado, imparable, sin confianza y escalable. máquina.
Si bien se sabe desde hace mucho tiempo que todo esto es teóricamente posible, la mayoría de los esfuerzos en curso hasta la fecha han sido muy fragmentados y tienen serias compensaciones y limitaciones.
En este artículo, exploramos algunas de las compensaciones y limitaciones que enfrentan los intentos existentes de construir una computadora mundial, luego analizamos los componentes necesarios para tal máquina y, finalmente, proponemos una arquitectura de supercomputadora mundial novedosa.
Una nueva posibilidad, digna de nuestra comprensión.
1. Limitaciones del método actual
a) Paquetes acumulados de Ethereum y L2
Ethereum fue el primer intento real de construir la supercomputadora del mundo y posiblemente el más exitoso. Sin embargo, durante su desarrollo, Ethereum priorizó en gran medida la descentralización y la seguridad sobre la escalabilidad y el rendimiento. Entonces, aunque Ethereum regular y confiable está lejos de ser la supercomputadora del mundo, simplemente no escala.
La solución actual es L2 Rollups, que se ha convertido en la solución de escalamiento más ampliamente adoptada para mejorar el rendimiento de las computadoras en el mundo Ethereum. Como una capa adicional construida sobre Ethereum, L2 Rollups ofrece ventajas significativas y cuenta con el respaldo de la comunidad.
Si bien existen múltiples definiciones de acumulaciones L2, generalmente se acepta que las acumulaciones L2 son redes con dos características clave: disponibilidad de datos en la cadena y ejecución de transacciones fuera de la cadena en Ethereum u otras redes subyacentes. Básicamente, el estado histórico o los datos de transacciones de entrada son de acceso público y están comprometidos con la verificación en Ethereum, pero todas las transacciones individuales y las transiciones de estado se eliminan de la red principal.
Si bien los L2 Rollups han mejorado en gran medida el rendimiento de estas "computadoras globales", muchas de ellas tienen un riesgo sistémico de centralización, lo que socava fundamentalmente los principios de la cadena de bloques como red descentralizada. Esto se debe a que la ejecución fuera de la cadena implica no solo transiciones de estado individuales, sino también la secuenciación o el procesamiento por lotes de estas transacciones. En la mayoría de los casos, el ordenador L2 hace el pedido, mientras que los validadores L2 calculan el nuevo estado. Sin embargo, proporcionar esta capacidad de pedido a los encargados de L2 crea un riesgo de centralización, donde el encargado centralizado puede abusar de su poder para censurar transacciones arbitrariamente, interrumpir la actividad de la red y beneficiarse de la captura de MEV.
Aunque ha habido muchas discusiones sobre las formas de reducir el riesgo de la centralización de L2, como compartir, subcontratar o soluciones basadas en pedidos, soluciones de pedidos descentralizados (como PoA, selección de líder de PoS, subasta de MEV y PoE), entre ellos Muchos los intentos aún se encuentran en la etapa de diseño conceptual y están lejos de ser una panacea para este problema. Además, muchos proyectos L2 parecen reacios a implementar una solución de clasificación descentralizada. Por ejemplo, Arbitrum propone un clasificador descentralizado como característica opcional. Además del problema del pedido centralizado, L2 Rollup puede tener problemas de centralización debido a los requisitos de hardware de nodo completo, el riesgo de gobierno y las tendencias de acumulación de aplicaciones.
b) L2 Rollups y el Trilema Informático Mundial
Todos estos problemas de centralización que surgen al depender de L2 Rollups para escalar Ethereum revelan un problema fundamental, el "trilema informático mundial", que se deriva del clásico "trilema" de blockchain:
Diferentes prioridades para este trilema darán como resultado diferentes compensaciones:
El esquema L2 tradicional es en realidad construir la computadora mundial de forma modular. Sin embargo, dado que las diferentes funciones no se dividen en función de las prioridades antes mencionadas, World Computer mantiene la arquitectura de mainframe original de Ethereum incluso con la escala. Esta arquitectura no puede satisfacer otras funciones como la descentralización y el rendimiento, y no puede resolver el trilema de la computadora mundial.
En otras palabras, L2 Rollups implementa las siguientes funciones:
Sin embargo, L2 Rollups no proporciona:
Si bien la arquitectura informática mundial puede tener L2 y cadenas de bloques modulares, no resuelve el problema fundamental. L2 puede resolver el trilema de blockchain, pero no el trilema de la computadora mundial en sí. Entonces, como hemos visto, los enfoques actuales no son suficientes para realmente realizar la supercomputadora mundial descentralizada que Ethereum imaginó originalmente. Necesitamos expansión del desempeño y descentralización, no expansión del desempeño y descentralización gradual.
2. Objetivos de diseño de las supercomputadoras del mundo
Para esto, necesitamos una red que pueda resolver cálculos intensivos verdaderamente de propósito general (especialmente el aprendizaje automático y los oráculos), al tiempo que conserva la descentralización total de la cadena de bloques de la capa base. Además, debemos asegurarnos de que la red sea capaz de admitir cálculos intensivos, como el aprendizaje automático (ML), que se puede ejecutar directamente en la red y, en última instancia, verificar en la cadena de bloques. Además, debemos proporcionar suficiente almacenamiento y poder de cómputo además de las implementaciones informáticas mundiales existentes, los objetivos y los métodos de diseño son los siguientes:
a) Requisitos de cálculo
Para satisfacer las necesidades y los propósitos de una computadora mundial, ampliamos el concepto de una computadora mundial descrito por Ethereum y apuntamos a lograr una supercomputadora mundial.
La supercomputadora del mundo primero necesita completar las tareas que las computadoras pueden completar ahora y en el futuro de manera descentralizada. Para prepararse para la adopción masiva, los desarrolladores necesitan las supercomputadoras del mundo para acelerar el desarrollo y la adopción del aprendizaje automático descentralizado para ejecutar la inferencia y validación de modelos.
Para tareas de uso intensivo de recursos informáticos como el aprendizaje automático, lograr tal objetivo requiere no solo técnicas informáticas que minimizan la confianza, como pruebas de conocimiento cero, sino también una mayor capacidad de datos en la red descentralizada. Estos no se pueden lograr en una sola red P2P (como la cadena de bloques tradicional).
b) Soluciones a cuellos de botella de desempeño
En los primeros días de la informática, nuestros pioneros se enfrentaban a cuellos de botella de rendimiento similares al hacer concesiones entre la potencia informática y la capacidad de almacenamiento. Tome el componente más pequeño de un circuito como ejemplo.
Podemos comparar el cálculo con una bombilla/transistor y el almacenamiento con un condensador. En un circuito, una bombilla requiere una corriente eléctrica para emitir luz, similar a una tarea computacional que requiere computación para realizarse. Los condensadores, por otro lado, almacenan carga, de manera similar a cómo el almacenamiento puede almacenar datos.
Para el mismo voltaje y corriente, puede haber una compensación en la distribución de energía entre la bombilla y el capacitor. Por lo general, los cálculos más altos requieren más corriente para realizar la tarea de cálculo y, por lo tanto, requieren que el capacitor almacene menos energía. Los capacitores más grandes pueden almacenar más energía, pero pueden resultar en un rendimiento computacional más bajo con cargas computacionales más altas. Esta compensación hace que sea imposible combinar computación y almacenamiento en algunos casos.
En la arquitectura informática de von Neumann, condujo al concepto de separar el dispositivo de almacenamiento de la unidad central de procesamiento. Similar a separar la bombilla del capacitor, esto podría resolver el cuello de botella en el rendimiento de los sistemas de supercomputadoras de nuestro mundo.
Además, las bases de datos distribuidas tradicionales de alto rendimiento adoptan un esquema de diseño que separa el almacenamiento y la computación. Este esquema fue adoptado porque es totalmente compatible con las características de las supercomputadoras del mundo.
c) Topología de arquitectura novedosa
La principal diferencia entre las cadenas de bloques modulares (incluidos L2 Rollups) y las arquitecturas informáticas mundiales es su propósito:
Proponemos una alternativa de que la eventual supercomputadora mundial consistirá en tres redes P2P topológicamente heterogéneas conectadas por buses (conectores) sin confianza, como la tecnología de prueba de conocimiento cero: libro mayor de consenso, red informática y red de almacenamiento. Esta configuración básica permite que las supercomputadoras del mundo resuelvan el trilema informático mundial, y se pueden agregar otros componentes según sea necesario para una aplicación en particular.
Vale la pena señalar que la heterogeneidad topológica implica no solo diferencias arquitectónicas y estructurales, sino también diferencias fundamentales en las formas topológicas. Por ejemplo, mientras que Ethereum y Cosmos son heterogéneos en términos de interconexiones y capas de red, siguen siendo equivalentes en términos de heterogeneidad topológica (cadenas de bloques).
En las supercomputadoras del mundo, la cadena de bloques del libro mayor de consenso adopta la forma de cadena de bloques y los nodos adoptan la forma de un gráfico completo, mientras que la red zkOracle como Hyper Oracle es una red sin libros mayores y los nodos forman un gráfico cíclico, mientras que la red La estructura para almacenar Rollup es otra variante, las particiones forman subredes.
Mediante el uso de pruebas de conocimiento cero como bus de datos, podemos lograr una supercomputadora mundial totalmente descentralizada, imparable, sin permisos y escalable al conectar tres redes peer-to-peer topológicamente heterogéneas.
3. Arquitectura mundial de supercomputadoras
De manera similar a la construcción de una computadora física, debemos ensamblar la red de consenso, la red informática y la red de almacenamiento mencionadas anteriormente en una supercomputadora mundial.
La selección y conexión adecuada de cada componente nos ayudará a lograr un equilibrio entre el libro de consenso, el poder de cómputo y el trilema de la capacidad de almacenamiento y, en última instancia, garantizar la descentralización, el alto rendimiento y la seguridad de las supercomputadoras del mundo.
La arquitectura de las supercomputadoras del mundo se describe a continuación según sus funciones:
La estructura de nodos de una red mundial de supercomputadoras con red de consenso, computación y almacenamiento se parece a la siguiente:
Para lanzar la red, los nodos de la supercomputadora mundial se basarán en la infraestructura descentralizada de Ethereum. Los nodos con alto rendimiento informático pueden unirse a la red informática de zkOracle para generar pruebas para informática general o aprendizaje automático, mientras que los nodos con alta capacidad de almacenamiento pueden unirse a la red de almacenamiento de EthStorage.
Los ejemplos anteriores describen nodos que ejecutan Ethereum y redes de cómputo/almacenamiento. Para los nodos que solo ejecutan redes informáticas/de almacenamiento, pueden acceder a los últimos bloques de Ethereum o probar la disponibilidad de los datos almacenados a través de un bus de tecnologías de prueba de conocimiento cero como zkPoS y zkNoSQL sin confianza.
a) Consenso de Ethereum
Actualmente, la red de consenso de las supercomputadoras del mundo utiliza exclusivamente Ethereum. Ethereum tiene un fuerte consenso social y seguridad a nivel de red, lo que garantiza un consenso descentralizado.
Las supercomputadoras del mundo se basan en una arquitectura centrada en el libro mayor de consenso. El libro mayor de consenso tiene dos propósitos principales:
En comparación con las redes informáticas o las redes de almacenamiento, Ethereum no puede manejar una gran cantidad de tareas informáticas al mismo tiempo, ni puede almacenar grandes cantidades de datos de propósito general.
Entre las supercomputadoras del mundo, Ethereum es una red de consenso para almacenar datos, como L2 Rollup, para llegar a un consenso para la red de computación y almacenamiento, y para cargar datos clave para que la red de computación pueda realizar más cálculos fuera de la cadena.
b) Paquete acumulativo de almacenamiento
Proto-danksharding y Danksharding de Ethereum son esencialmente formas de escalar la red de consenso. Para lograr la capacidad de almacenamiento requerida por las supercomputadoras del mundo, necesitamos una solución que sea nativa de Ethereum y admita el almacenamiento permanente de grandes cantidades de datos.
Los paquetes acumulativos de almacenamiento, como EthStorage, esencialmente escalan Ethereum para almacenamiento masivo. Además, dado que las aplicaciones que consumen muchos recursos computacionales, como el aprendizaje automático, requieren grandes cantidades de memoria para ejecutarse en computadoras físicas, es importante tener en cuenta que la "memoria" de Ethereum no se puede sobredimensionar. Los paquetes acumulativos de almacenamiento son necesarios para el "intercambio" que permite a las supercomputadoras del mundo ejecutar tareas computacionalmente intensivas.
Además, EthStorage proporciona un protocolo de acceso web3:// (ERC-4804), que es similar al URI nativo o al direccionamiento de recursos de almacenamiento de las supercomputadoras del mundo.
c) red informática zkOracle
La red informática es el elemento más importante de las supercomputadoras del mundo porque determina el rendimiento general. Debe ser capaz de manejar cálculos complejos como oráculos o aprendizaje automático, y debe ser más rápido que las redes de consenso y almacenamiento en términos de acceso y procesamiento de datos.
La red zkOracle es una red informática descentralizada y de confianza minimizada capaz de procesar cálculos arbitrarios. Cualquier programa en ejecución genera una prueba ZK, que cuando se usa puede verificarse fácilmente por consenso (Ethereum) u otros componentes.
Hyper Oracle es una red de zkOracles, impulsada por zkWASM y EZKL, que puede ejecutar cualquier cálculo utilizando seguimientos de prueba de ejecución.
La red zkOracle es una cadena de bloques sin libro mayor (sin estado global) que sigue la estructura de cadena de la cadena de bloques original (Ethereum), pero funciona como una red informática sin libros mayores. La red zkOracle no garantiza la validez computacional a través de la reejecución como las cadenas de bloques tradicionales, sino que proporciona verificabilidad computacional a través de pruebas generadas. El diseño sin libro mayor y la configuración de nodos dedicados para la informática permite que las redes zkOracle (como Hyper Oracle) se centren en la informática de alto rendimiento y confianza minimizada. El resultado del cálculo se envía directamente a la red de consenso en lugar de generar un nuevo consenso.
En la red informática de zkOracle, cada unidad informática o archivo ejecutable está representado por un zkGraph. Estos zkGraphs definen el cómputo y el comportamiento de generación de pruebas, al igual que los contratos inteligentes definen el cómputo de una red de consenso.
I. Informática general fuera de la cadena
El programa zkGraph en el cálculo de zkOracle se puede usar sin una pila externa para dos casos de uso principales:
Estos dos casos pueden cumplir con los requisitos de middleware e infraestructura de cualquier desarrollador de contratos inteligentes. Esto significa que, como desarrollador de la supercomputadora mundial, puede pasar por todo el proceso de desarrollo descentralizado de extremo a extremo al crear una aplicación descentralizada completa, incluidos los contratos inteligentes en la cadena en la red de consenso y las cadenas en la red informática. calcular.
II. Cálculos de ML/IA
Para lograr la adopción a escala de Internet y admitir cualquier escenario de aplicación, las supercomputadoras del mundo deben admitir la computación de aprendizaje automático de manera descentralizada.
A través de la tecnología de prueba de conocimiento cero, el aprendizaje automático y la inteligencia artificial pueden integrarse en las supercomputadoras del mundo y verificarse en la red de consenso de Ethereum para lograr una computación en cadena real.
En este caso, zkGraph se puede conectar a pilas de tecnología externa, combinando así el propio zkML con la red informática de las supercomputadoras del mundo. Esto permite que todos los tipos de aplicaciones zkML:
Para lograr el poder de cómputo de inteligencia artificial y aprendizaje automático de las supercomputadoras del mundo, zkGraph se combinará con las siguientes pilas de tecnología zkML avanzada, brindándoles integración directa con redes de consenso y redes de almacenamiento.
e) zk como bus de datos
Ahora que tenemos todos los componentes básicos de la supercomputadora del mundo, necesitamos un componente final para conectarlos. Necesitamos un bus verificable y de confianza minimizada para comunicar y coordinar entre componentes.
Hyper Oracle zkPoS es un candidato adecuado para el zk Bus para las supercomputadoras del mundo que utilizan Ethereum como red de consenso. zkPoS es un componente clave de zkOracle, que verifica el consenso de Ethereum a través de ZK, para que el consenso de Ethereum pueda propagarse y verificarse en cualquier entorno.
Como bus descentralizado y de confianza minimizada, zkPoS puede conectar todos los componentes de las supercomputadoras del mundo a través de ZK, casi sin sobrecarga de cálculo de verificación. Mientras haya un bus como zkPoS, los datos pueden fluir libremente dentro de las supercomputadoras del mundo.
Cuando el consenso de Ethereum se puede pasar de la capa de consenso al bus como los datos de consenso iniciales de las supercomputadoras del mundo, zkPoS puede probarlo a través de prueba de estado/evento/transacción. Los datos generados luego pueden pasarse a la red informática de la red zkOracle.
Además, para el bus de la red de almacenamiento, EthStorage está desarrollando zkNoSQL para permitir pruebas de disponibilidad de datos, lo que permite que otras redes verifiquen rápidamente que un BLOB tiene suficientes réplicas.
f) Otro caso: Bitcoin como red de consenso
Al igual que muchos paquetes acumulativos soberanos de segunda capa, una red descentralizada como Bitcoin puede servir como la red de consenso que sustenta las supercomputadoras del mundo.
Para admitir una supercomputadora mundial de este tipo, debemos reemplazar el bus zkPoS, porque Bitcoin es una red de cadena de bloques basada en el mecanismo PoW.
Podemos usar ZeroSync para implementar zk como el bus de la supercomputadora mundial Bitcoin. ZeroSync es similar a "zkPoW", que sincroniza el consenso de Bitcoin a través de pruebas de conocimiento cero, lo que permite que cualquier entorno informático verifique y obtenga el estado de Bitcoin más reciente en milisegundos.
g) Flujo de trabajo
La siguiente es una descripción general del proceso de transacción de la supercomputadora mundial basada en Ethereum, dividida en varios pasos:
A lo largo del proceso, el autobús juega un papel vital en la conexión de cada paso:
en conclusión
Bitcoin ha sentado una base sólida para la creación de la computadora mundial v0 y construyó con éxito el "libro mayor mundial". Posteriormente, Ethereum demostró efectivamente el paradigma de la "computadora mundial" al introducir un mecanismo de contrato inteligente más programable. Para lograr la descentralización, aproveche la falta de confianza inherente de la criptografía, los incentivos económicos naturales de MEV, impulse la adopción masiva, el potencial de la tecnología ZK y la necesidad de computación de propósito general descentralizada, incluido el aprendizaje automático, el surgimiento de las supercomputadoras del mundo. se ha vuelto necesario.
Nuestra solución propuesta construirá una supercomputadora mundial mediante la conexión de redes P2P topológicamente heterogéneas utilizando pruebas de conocimiento cero. Como libro mayor de consenso, Ethereum proporcionará el consenso básico y utilizará el intervalo de bloque como el ciclo de reloj de todo el sistema. Como red de almacenamiento, un paquete acumulativo de almacenamiento almacenará grandes cantidades de datos y proporcionará estándares de URI para acceder a los datos. Como red informática, la red zkOracle ejecutará cálculos con uso intensivo de recursos y generará pruebas de cálculo verificables. Como un bus de datos, la tecnología de prueba de conocimiento cero conectará varios componentes y permitirá que los datos y el consenso se vinculen y verifiquen.