En el campo de la computación tradicional, un coprocesador es una unidad de procesamiento que ayuda a la CPU a manejar tareas complejas. Esta tecnología es muy común en la industria informática, por ejemplo, el coprocesador de movimiento M7 que Apple lanzó en 2013 mejoró significativamente la sensibilidad de detección de movimiento en dispositivos inteligentes. El GPU, ampliamente conocido, es el concepto de coprocesador propuesto por Nvidia en 2007, que se encarga principalmente de tareas de renderizado gráfico. El GPU acelera las aplicaciones que se ejecutan en la CPU al procesar código intensivo en cálculos, y esta arquitectura se conoce como computación "heterogénea" o "mixta".
La función principal del coprocesador es asumir tareas específicas que son complejas y requieren un alto rendimiento, permitiendo que la CPU se concentre en manejar trabajos más flexibles y variables.
En la red de Ethereum, hay dos problemas graves que limitan el desarrollo de aplicaciones:
Los altos costos de Gas limitan el alcance del desarrollo de aplicaciones en la cadena. Las operaciones de transferencia normales requieren 21000 Gas, que ya es el límite inferior de los costos de Gas en la red de Ethereum. Otras operaciones, como el almacenamiento de datos, consumen más Gas, lo que obstaculiza gravemente la adopción masiva de aplicaciones y usuarios.
Los contratos inteligentes solo pueden acceder a los datos de los 256 bloques más recientes; en el futuro, con la actualización de Pectra y la implementación de la propuesta EIP-4444, los nodos completos ya no almacenarán datos de bloques pasados. Esta falta de datos dificulta la aparición de aplicaciones innovadoras basadas en datos, afectando el desarrollo de aplicaciones intensivas en datos en blockchain, como Tiktok e Instagram.
Estos problemas exponen que la capacidad de cálculo y la disponibilidad de datos son las principales razones que limitan la adopción masiva de nuevos paradigmas computacionales. La blockchain de Ethereum no fue diseñada para manejar tareas de cálculo y de datos intensivas en gran medida. Para compatibilizar estas aplicaciones, se necesita introducir el concepto de coprocesador. La cadena de Ethereum en sí actúa como CPU, mientras que el coprocesador es similar a una GPU, manejando tareas de cálculo y de datos intensivas.
Con el desarrollo de la tecnología de pruebas de conocimiento cero, para garantizar la confiabilidad de los coprocesadores en el cálculo fuera de la cadena, la mayoría de los proyectos de coprocesadores se basan en la tecnología de pruebas de conocimiento cero.
El rango de aplicaciones de los procesadores ZK es muy amplio, abarcando casi todos los escenarios de aplicaciones descentralizadas reales, incluyendo redes sociales, juegos, DeFi, sistemas de gestión de riesgos basados en datos en cadena, oráculos, almacenamiento de datos, entrenamiento e inferencia de grandes modelos de lenguaje, entre otros. En teoría, las funciones que las aplicaciones Web2 pueden lograr, los procesadores ZK pueden implementarlas en la blockchain, mientras que Ethereum actúa como la capa de liquidación final para garantizar la seguridad de las aplicaciones.
Actualmente, la definición de los procesadores ZK en la industria aún no está completamente unificada. ZK-Query, ZK-Oracle, ZKM, entre otros, pueden considerarse como procesadores auxiliares, ya que pueden ayudar a consultar datos completos en la cadena, datos confiables fuera de la cadena y resultados de cálculos fuera de la cadena. Desde este punto de vista, Layer2 es esencialmente también un tipo de procesador auxiliar de Ethereum.
Visión general del proyecto de coprocesador
Los proyectos de coprocesadores más conocidos actualmente se centran principalmente en tres escenarios de aplicación: indexación de datos en la cadena, oráculos y ZKML. Entre ellos, proyectos de máquinas virtuales ZK de propósito general como Delphinus se enfocan en zkWASM, mientras que Risc Zero se dedica a la arquitectura Risc-V.
Arquitectura de tecnología de coprocesadores
Tomando como ejemplo un procesador de coprocessador ZK de tipo general, analizamos en profundidad las arquitecturas técnicas de tres proyectos: Risc Zero, Lagrange y Succinct, para comprender las similitudes y diferencias en el diseño técnico y de mecanismos de este tipo de máquina virtual general, y así juzgar las tendencias futuras de desarrollo de los coprocessadores.
Risc Zero
El coprocesador ZK de Risc Zero se llama Bonsai, y construye un conjunto de componentes de prueba de conocimiento cero independientes de la blockchain. Bonsai se basa en la arquitectura de conjunto de instrucciones Risc-V, tiene una gran versatilidad y soporta varios lenguajes de programación como Rust, C++, Solidity y Go.
Las principales funciones de Bonsai incluyen:
zkVM genérico, que puede ejecutar cualquier máquina virtual en un entorno de conocimiento cero/ verificable.
Sistema de generación de pruebas ZK que se puede integrar directamente en contratos inteligentes o en blockchain.
Rollup general, que distribuye los resultados de cálculo probados en Bonsai a la cadena.
Los componentes clave de Bonsai incluyen:
Red de validadores: recibe y verifica el código ZK, genera la prueba ZK.
Request Pool: Almacena las solicitudes de prueba iniciadas por los usuarios.
Motor Rollup: recopila resultados de pruebas y los empaqueta para subirlos a la red principal de Ethereum.
Image Hub: Plataforma de desarrollo visual para funciones y aplicaciones.
Estado de Almacenamiento: almacenamiento de estado fuera de la cadena.
Proving Marketplace: Mercado de potencia de cálculo de la cadena de suministro ZK.
Lagrange
Lagrange tiene como objetivo construir coprocesadores y bases de datos verificables, que contengan datos históricos en la blockchain, y que apoyen el desarrollo de aplicaciones sin necesidad de confianza. Sus principales funciones incluyen:
Base de datos verificable: almacenamiento de contratos inteligentes indexados en la cadena, guardando el estado en la base de datos.
Cálculo basado en el principio de MapReduce: arquitectura zkMR que admite la ejecución paralela.
El diseño de la base de datos de Lagrange involucra tres partes: el almacenamiento de datos de contrato, los datos de estado de EOA y los datos de bloque. Crea una estructura de datos de bloque amigable para las pruebas SNARK, donde cada nodo hoja es un encabezado de bloque.
La computación de la máquina virtual ZKMR de Lagrange se divide en dos pasos:
Mapa: máquinas distribuidas mapean datos y generan pares clave-valor.
Reducir: las computadoras distribuidas calculan las pruebas por separado y luego se combinan.
ZKMR puede combinar las pruebas de cálculos pequeños en una prueba de cálculo global, ampliando efectivamente la capacidad de prueba de cálculos complejos.
Conciso
El objetivo de Succinct Network es integrar hechos programables en cada etapa del desarrollo de blockchain. Soporta múltiples códigos, incluyendo Solidity y lenguajes de dominio de conocimiento cero especializados, que pueden ejecutarse en procesadores auxiliares fuera de la cadena.
El ZKVM fuera de la cadena de Succinct se llama SP (Succinct Processor) y es compatible con Rust y otros lenguajes de LLVM. Sus características principales incluyen:
Tecnología de pruebas recursivas basada en STARKs.
Soporte para envoltura de SNARKs a STARKs.
Arquitectura zkVM centrada en la precompilación.
Comparación de proyectos de coprocesadores
Al comparar los procesadores ZK de propósito general, consideramos principalmente los siguientes aspectos:
Capacidad de indexación/sincronización de datos
Ruta tecnológica adoptada (SNARKs vs STARKs)
¿Se admite la prueba recursiva?
Eficiencia del sistema de prueba
Situación de cooperación ecológica
Contexto de financiamiento
Actualmente, las rutas tecnológicas de los proyectos líderes tienden a converger, ya que todos utilizan envolturas de STARKs a SNARKs, así como tecnologías de pruebas recursivas. Dado que la generación de pruebas de los algoritmos ZK es la etapa que más costos y tiempo consume, cada proyecto está construyendo redes de probadores y mercados de computación en la nube.
En un contexto donde las rutas tecnológicas son similares, los avances del proyecto pueden depender más de la fortaleza del equipo y del apoyo de los recursos ecológicos del VC detrás, para lograr una mayor participación en el mercado.
Diferencias entre el coprocesador y Layer2
A diferencia de Layer2 orientado al usuario, el coprocesador está principalmente dirigido al desarrollo de aplicaciones. Puede actuar como componente de aceleración o componente modular, aplicándose a los siguientes escenarios:
Como componente de máquina virtual fuera de la cadena de ZK Layer2
Proporcionar potencia de cálculo fuera de la cadena para aplicaciones en la cadena pública
Oráculo para obtener datos verificables de otras cadenas como aplicación de cadena pública
Actuar como un puente entre cadenas para la transmisión de mensajes
El coprocesador ha traído el potencial de sincronización de datos en tiempo real en toda la cadena y de computación confiable de alto rendimiento y bajo costo, lo que permite reestructurar la mayoría de los middleware de blockchain, incluyendo oráculos, consultas de datos, puentes entre cadenas, etc.
Desafíos enfrentados por el coprocesador
La barrera de entrada para los desarrolladores es alta, necesitan dominar lenguajes y herramientas específicos.
La industria se encuentra en una etapa temprana, y el rendimiento de zkVM implica múltiples dimensiones complejas.
La infraestructura básica, como el hardware, aún no está madura, y la comercialización todavía requiere tiempo.
Las rutas tecnológicas de los proyectos son similares, lo que dificulta la formación de ventajas significativas, y el enfoque de la competencia se ha trasladado a la cooperación en recursos y ecosistemas.
Resumen y perspectiva
La tecnología ZK tiene una gran versatilidad y ayuda a la evolución del ecosistema de Ethereum de la descentralización hacia la desconfianza. El coprocesador ZK, como herramienta importante para la implementación de la tecnología ZK, teóricamente puede lograr una versión en blockchain de cualquier aplicación Web2.
La adopción masiva de los coprocesadores ZK depende principalmente de dos factores: una base de datos de prueba en tiempo real en toda la cadena y cálculos fuera de la cadena de bajo costo. Este objetivo requiere una implementación iterativa gradual. La aplicación comercial de los chips de potencia de cálculo ZK es un requisito clave para la implementación masiva de los coprocesadores.
El ciclo de mercado actual carece de innovación, lo que proporciona una ventana de oportunidad para construir la próxima generación de tecnologías de aplicaciones a gran escala. Se espera que en el próximo ciclo, la cadena industrial ZK logre una implementación comercial. Ahora es el mejor momento para centrarse en las tecnologías clave que pueden soportar interacciones en línea de 1,000 millones de usuarios.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
ZK coprocesador: un nuevo paradigma para superar el cuello de botella de rendimiento de Ethereum
Historia y desarrollo de los coprocesadores
En el campo de la computación tradicional, un coprocesador es una unidad de procesamiento que ayuda a la CPU a manejar tareas complejas. Esta tecnología es muy común en la industria informática, por ejemplo, el coprocesador de movimiento M7 que Apple lanzó en 2013 mejoró significativamente la sensibilidad de detección de movimiento en dispositivos inteligentes. El GPU, ampliamente conocido, es el concepto de coprocesador propuesto por Nvidia en 2007, que se encarga principalmente de tareas de renderizado gráfico. El GPU acelera las aplicaciones que se ejecutan en la CPU al procesar código intensivo en cálculos, y esta arquitectura se conoce como computación "heterogénea" o "mixta".
La función principal del coprocesador es asumir tareas específicas que son complejas y requieren un alto rendimiento, permitiendo que la CPU se concentre en manejar trabajos más flexibles y variables.
En la red de Ethereum, hay dos problemas graves que limitan el desarrollo de aplicaciones:
Los altos costos de Gas limitan el alcance del desarrollo de aplicaciones en la cadena. Las operaciones de transferencia normales requieren 21000 Gas, que ya es el límite inferior de los costos de Gas en la red de Ethereum. Otras operaciones, como el almacenamiento de datos, consumen más Gas, lo que obstaculiza gravemente la adopción masiva de aplicaciones y usuarios.
Los contratos inteligentes solo pueden acceder a los datos de los 256 bloques más recientes; en el futuro, con la actualización de Pectra y la implementación de la propuesta EIP-4444, los nodos completos ya no almacenarán datos de bloques pasados. Esta falta de datos dificulta la aparición de aplicaciones innovadoras basadas en datos, afectando el desarrollo de aplicaciones intensivas en datos en blockchain, como Tiktok e Instagram.
Estos problemas exponen que la capacidad de cálculo y la disponibilidad de datos son las principales razones que limitan la adopción masiva de nuevos paradigmas computacionales. La blockchain de Ethereum no fue diseñada para manejar tareas de cálculo y de datos intensivas en gran medida. Para compatibilizar estas aplicaciones, se necesita introducir el concepto de coprocesador. La cadena de Ethereum en sí actúa como CPU, mientras que el coprocesador es similar a una GPU, manejando tareas de cálculo y de datos intensivas.
Con el desarrollo de la tecnología de pruebas de conocimiento cero, para garantizar la confiabilidad de los coprocesadores en el cálculo fuera de la cadena, la mayoría de los proyectos de coprocesadores se basan en la tecnología de pruebas de conocimiento cero.
El rango de aplicaciones de los procesadores ZK es muy amplio, abarcando casi todos los escenarios de aplicaciones descentralizadas reales, incluyendo redes sociales, juegos, DeFi, sistemas de gestión de riesgos basados en datos en cadena, oráculos, almacenamiento de datos, entrenamiento e inferencia de grandes modelos de lenguaje, entre otros. En teoría, las funciones que las aplicaciones Web2 pueden lograr, los procesadores ZK pueden implementarlas en la blockchain, mientras que Ethereum actúa como la capa de liquidación final para garantizar la seguridad de las aplicaciones.
Actualmente, la definición de los procesadores ZK en la industria aún no está completamente unificada. ZK-Query, ZK-Oracle, ZKM, entre otros, pueden considerarse como procesadores auxiliares, ya que pueden ayudar a consultar datos completos en la cadena, datos confiables fuera de la cadena y resultados de cálculos fuera de la cadena. Desde este punto de vista, Layer2 es esencialmente también un tipo de procesador auxiliar de Ethereum.
Visión general del proyecto de coprocesador
Los proyectos de coprocesadores más conocidos actualmente se centran principalmente en tres escenarios de aplicación: indexación de datos en la cadena, oráculos y ZKML. Entre ellos, proyectos de máquinas virtuales ZK de propósito general como Delphinus se enfocan en zkWASM, mientras que Risc Zero se dedica a la arquitectura Risc-V.
Arquitectura de tecnología de coprocesadores
Tomando como ejemplo un procesador de coprocessador ZK de tipo general, analizamos en profundidad las arquitecturas técnicas de tres proyectos: Risc Zero, Lagrange y Succinct, para comprender las similitudes y diferencias en el diseño técnico y de mecanismos de este tipo de máquina virtual general, y así juzgar las tendencias futuras de desarrollo de los coprocessadores.
Risc Zero
El coprocesador ZK de Risc Zero se llama Bonsai, y construye un conjunto de componentes de prueba de conocimiento cero independientes de la blockchain. Bonsai se basa en la arquitectura de conjunto de instrucciones Risc-V, tiene una gran versatilidad y soporta varios lenguajes de programación como Rust, C++, Solidity y Go.
Las principales funciones de Bonsai incluyen:
Los componentes clave de Bonsai incluyen:
Lagrange
Lagrange tiene como objetivo construir coprocesadores y bases de datos verificables, que contengan datos históricos en la blockchain, y que apoyen el desarrollo de aplicaciones sin necesidad de confianza. Sus principales funciones incluyen:
El diseño de la base de datos de Lagrange involucra tres partes: el almacenamiento de datos de contrato, los datos de estado de EOA y los datos de bloque. Crea una estructura de datos de bloque amigable para las pruebas SNARK, donde cada nodo hoja es un encabezado de bloque.
La computación de la máquina virtual ZKMR de Lagrange se divide en dos pasos:
ZKMR puede combinar las pruebas de cálculos pequeños en una prueba de cálculo global, ampliando efectivamente la capacidad de prueba de cálculos complejos.
Conciso
El objetivo de Succinct Network es integrar hechos programables en cada etapa del desarrollo de blockchain. Soporta múltiples códigos, incluyendo Solidity y lenguajes de dominio de conocimiento cero especializados, que pueden ejecutarse en procesadores auxiliares fuera de la cadena.
El ZKVM fuera de la cadena de Succinct se llama SP (Succinct Processor) y es compatible con Rust y otros lenguajes de LLVM. Sus características principales incluyen:
Comparación de proyectos de coprocesadores
Al comparar los procesadores ZK de propósito general, consideramos principalmente los siguientes aspectos:
Actualmente, las rutas tecnológicas de los proyectos líderes tienden a converger, ya que todos utilizan envolturas de STARKs a SNARKs, así como tecnologías de pruebas recursivas. Dado que la generación de pruebas de los algoritmos ZK es la etapa que más costos y tiempo consume, cada proyecto está construyendo redes de probadores y mercados de computación en la nube.
En un contexto donde las rutas tecnológicas son similares, los avances del proyecto pueden depender más de la fortaleza del equipo y del apoyo de los recursos ecológicos del VC detrás, para lograr una mayor participación en el mercado.
Diferencias entre el coprocesador y Layer2
A diferencia de Layer2 orientado al usuario, el coprocesador está principalmente dirigido al desarrollo de aplicaciones. Puede actuar como componente de aceleración o componente modular, aplicándose a los siguientes escenarios:
El coprocesador ha traído el potencial de sincronización de datos en tiempo real en toda la cadena y de computación confiable de alto rendimiento y bajo costo, lo que permite reestructurar la mayoría de los middleware de blockchain, incluyendo oráculos, consultas de datos, puentes entre cadenas, etc.
Desafíos enfrentados por el coprocesador
Resumen y perspectiva
La tecnología ZK tiene una gran versatilidad y ayuda a la evolución del ecosistema de Ethereum de la descentralización hacia la desconfianza. El coprocesador ZK, como herramienta importante para la implementación de la tecnología ZK, teóricamente puede lograr una versión en blockchain de cualquier aplicación Web2.
La adopción masiva de los coprocesadores ZK depende principalmente de dos factores: una base de datos de prueba en tiempo real en toda la cadena y cálculos fuera de la cadena de bajo costo. Este objetivo requiere una implementación iterativa gradual. La aplicación comercial de los chips de potencia de cálculo ZK es un requisito clave para la implementación masiva de los coprocesadores.
El ciclo de mercado actual carece de innovación, lo que proporciona una ventana de oportunidad para construir la próxima generación de tecnologías de aplicaciones a gran escala. Se espera que en el próximo ciclo, la cadena industrial ZK logre una implementación comercial. Ahora es el mejor momento para centrarse en las tecnologías clave que pueden soportar interacciones en línea de 1,000 millones de usuarios.