Pourquoi est-il si difficile de décentraliser la technologie de couche 2 du point de vue de l’industrie ?

币小白_

Auteur : Haotian Crypto Observer Source : X (anciennement Twitter) @tmel0211

Les risques de sécurité multi-signatures de Blast sont toujours critiqués, et même la blague de Tieshun a été diffusée, mais cela n’a pas affecté la valeur de blocage totale (TVL) de Blast de _L2 à continuer d’augmenter. La cognition rationnelle incite les gens à critiquer Blast, mais l’instinct de recherche du profit fait qu’il est difficile de refuser d’embrasser Blast. **

Ensuite, en mettant de côté les problèmes de sécurité multisig spécifiques de Blast, explorons pourquoi la décentralisation technique de la couche 2 est si difficile du point de vue de l’industrie de la couche 2.

Tout d’abord, il clarifie la décentralisation des composants techniques dits de couche 2, notamment : le séquenceur, le prouveur, le validateur, le contrat de cumul du réseau principal et d’autres composants clés distribués dans le réseau principal et la couche 2. Parmi eux, ZK-Rollup a plus de systèmes Prover que OP-Rollup, et tout le monde se concentre principalement sur le fonctionnement du séquenceur. En outre, certaines des différences sont que le degré auquel la disponibilité des données est atteinte dépend du degré du réseau principal Ethereum et de l’équivalence du réseau principal EVM.

À l’heure actuelle, l’état de décentralisation de chaque composant technologique de base de la couche 2 est le suivant :

  • Arbitrum dit qu’il travaille avec Espresso Systerm pour explorer la possibilité d’un séquenceur décentralisé, qui est encore en phase d’exploration ;

  • Le système Prover de Starknet implémente la décentralisation sans permission, mais le message de décentralisation de Sequencer n’est pas encore clair ;

  • Optimism rationalise la centralisation de Sequencer et lance la stratégie OP Stack, qui tente de décentraliser l’autorité en partageant le comité de gouvernance de la sécurité de Sequencer, et de compenser les lacunes du consensus technique par un consensus social ;

  • zkSync n’a pas eu de signes d’open source et de décentralisation des composants de base depuis longtemps, et a lancé la stratégie multi-appchain ZK Stack. Selon la déclaration officielle, zkSync deviendra une chaîne d’applications typique dans le cadre de la stratégie Stack, et il s’agit également d’une décision impuissante pour échapper à la technologie décentralisée.

Il n’est pas difficile de voir que les quatre couches 2 ont leurs propres considérations sur la décentralisation des composants technologiques de base, certains racontent encore l’histoire de la décentralisation technologique, et d’autres ont essayé de compenser les lacunes de la décentralisation technologique pure avec la stratégie Stack. **Dans l’ensemble, la décentralisation purement technologique de la couche 2 est très difficile. Pourquoi?

  1. Les séquenceurs de couche 2 utilisent généralement des adresses EOA centralisées pour économiser sur les coûts d’interaction avec le réseau principal. Optimism et zkSync utilisent tous deux des adresses EOA, qui sont directement contrôlées par la clé privée, ce qui rend l’opération plus flexible. Par rapport à la logique et aux fonctionnalités complexes des contrats intelligents, les structures EOA ont une surface d’attaque plus petite. Plus important encore, ces adresses EOA peuvent réduire les coûts lors de l’interaction avec les contrats du réseau principal. Cependant, le moyen le plus efficace de gérer les clés privées est d’avoir une gestion centralisée solide. La gestion décentralisée des clés privées augmente la surface d’attaque du système.

  2. Le séquenceur est responsable de l’extraction des frais de la couche 2, qui couvrent généralement les coûts des transactions par lots soumises au réseau principal, etc., qui constituent les revenus bruts de la couche 2. Cela rend les contrôleurs de Sequencer réticents à disperser facilement la puissance. Une fois que les droits seront trop dispersés, de nouveaux problèmes surgiront inévitablement en termes d’incitations et de frais de base, tels que la répartition des avantages.

3)Le processus de génération et de vérification de la preuve par le système Prover a un seuil technique élevé. À l’heure actuelle, il y a peu d’innovation dans les projets écologiques ZK-Rollup, l’une des principales raisons étant que l’adaptation de la structure de données et le seuil du circuit ZK sont élevés, en particulier pour les validateurs décentralisés. Une fois que les validateurs sont trop dispersés, il y aura des problèmes de stabilité dans le processus de traitement et de vérification des preuves.

  1. **OP-Rollup propose rarement des défis testés au combat. Cela est principalement dû au fait que le séquenceur centralisé rend la couche 2 naturellement encline à l’optimisme et au zéro défi. D’une certaine manière, le séquenceur trop centralisé semble être une faiblesse, mais il devient en fait un autre mécanisme de sécurité.

  2. En cas de défaillance de la sécurité de la couche 2, le séquenceur peut geler et contrôler de force le flux sortant des actifs. Un hard fork à faible coût au niveau de la couche 2 pourrait être une réponse. Mais que se passe-t-il si Sequencer est attaqué, qu’une grande quantité de fonds est retirée vers le réseau principal, et que la mise en œuvre d’une gouvernance multi-signatures évolutive par le contrat de cumul du réseau principal est une autre couche de double assurance. Parce qu’il est impossible pour la couche 2 de s’appuyer sur un hard fork au niveau du réseau principal.

Pour le dire crûment, le mainnet n’est responsable que de la gouvernance multisig pour assurer la sécurité du séquenceur de couche 2 en cas d’attaque. Il est inutile de discuter de qui figure sur la multi-signature et si elle a du prestige.

À l’heure actuelle, il est rare d’entendre parler des problèmes causés par la trop grande centralisation de la couche 2, principalement en raison du seuil technique global élevé de la couche 2, de la bonne réputation de l’équipe fondatrice, du soutien des institutions d’investissement et des mécanismes de sécurité spéciaux intégrés (mécanisme de défi, DA, etc.). Cela fait de la gestion de Layer 2 une entreprise durable à long terme, d’autant plus que s’asseoir et regarder l’ensemble de l’écosystème augmenter et continuer à percevoir des frais est la fin du jeu de Layer 2.

Si un projet de couche 2 ne parle pas d’écologie et de technologie, mais seulement d’attentes de parachutage au nom du « tout le monde est pareil », en plus des risques de Rug, il devrait d’abord se demander s’il s’agit vraiment de la couche 2.

Dans l’ensemble, la situation actuelle de la décentralisation de la technologie de couche 2 n’est pas idéale. À plus long terme, la stratégie éthérée de composants partagés multi-chaînes de la stratégie de pile peut être la seule solution à la puissance excessive de la centralisation de la couche 2.

Fondamentalement parlant, le consensus technique et le consensus social sont en fin de compte une sorte de restriction sur les mauvais comportements.

Source : Golden Finance (en anglais seulement)

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire