Tulisan Baru Vitalik: Masa Depan Ethereum yang Mungkin, The Surge
Peta jalan Ethereum awalnya mencakup dua strategi skalabilitas: sharding dan protokol Layer2. Kedua jalur ini akhirnya bergabung menjadi peta jalan yang berfokus pada Rollup, yang masih menjadi strategi ekspansi Ethereum saat ini. Peta jalan yang berfokus pada Rollup mengusulkan pembagian tugas yang sederhana: Ethereum L1 fokus untuk menjadi lapisan dasar yang kuat dan terdesentralisasi, sementara L2 bertugas membantu ekosistem untuk berkembang.
Tahun ini, peta jalan yang berfokus pada Rollup telah mencapai hasil penting: dengan diluncurkannya blob EIP-4844, bandwidth data Ethereum L1 meningkat secara signifikan, dan beberapa Ethereum Virtual Machine (EVM) Rollup telah memasuki tahap pertama. Setiap L2 ada sebagai "sharding" yang memiliki aturan dan logika internalnya sendiri, dan keberagaman serta variasi cara implementasi sharding kini telah menjadi kenyataan. Namun, seperti yang kita lihat, mengikuti jalur ini juga menghadapi beberapa tantangan unik. Oleh karena itu, tugas kita sekarang adalah menyelesaikan peta jalan yang berfokus pada Rollup dan mengatasi masalah ini, sambil mempertahankan ketahanan dan desentralisasi yang khas dari Ethereum L1.
The Surge: Tujuan Kunci
Di masa depan, Ethereum dapat mencapai lebih dari 100.000 TPS melalui L2;
Mempertahankan desentralisasi dan ketahanan L1;
Setidaknya beberapa L2 sepenuhnya mewarisi atribut inti Ethereum ( yang tidak memerlukan kepercayaan, terbuka, dan tahan sensor );
Ethereum seharusnya terasa seperti sebuah ekosistem yang terpadu, bukan 34 blockchain yang berbeda.
Isi Bab Ini
Paradox segitiga skalabilitas
Kemajuan lebih lanjut dalam sampling ketersediaan data
Kompresi data
Plasma Generalisasi
Sistem bukti L2 yang matang
Peningkatan interoperabilitas antar L2
Ekspansi eksekusi di L1
Paradoks Segitiga Skalabilitas
Paradoks segitiga skalabilitas adalah sebuah ide yang diusulkan pada tahun 2017, yang berpendapat bahwa terdapat kontradiksi antara tiga karakteristik blockchain: desentralisasi ( lebih spesifik lagi: biaya menjalankan node yang rendah ), skalabilitas ( jumlah transaksi yang diproses banyak ) dan keamanan ( penyerang perlu merusak sebagian besar node dalam jaringan untuk membuat satu transaksi gagal ).
Perlu dicatat bahwa paradoks segitiga bukanlah sebuah teorema, dan pos yang memperkenalkan paradoks segitiga juga tidak dilengkapi dengan bukti matematis. Ini memang memberikan argumen matematis heuristik: jika sebuah node ramah terdesentralisasi (, misalnya, laptop konsumen ) dapat memverifikasi N transaksi per detik, dan Anda memiliki rantai yang dapat memproses k*N transaksi per detik, maka (i) setiap transaksi hanya dapat dilihat oleh 1/k node, yang berarti penyerang hanya perlu merusak beberapa node untuk melakukan transaksi jahat, atau (ii) node Anda akan menjadi kuat, sementara rantai Anda tidak akan terdesentralisasi. Tujuan artikel ini sama sekali bukan untuk membuktikan bahwa memecahkan paradoks segitiga tidak mungkin; sebaliknya, ini bertujuan untuk menunjukkan bahwa memecahkan paradoks tiga adalah sulit dan memerlukan semacam pemikiran di luar kerangka argumen yang tersirat.
Selama bertahun-tahun, beberapa rantai berkinerja tinggi sering mengklaim bahwa mereka telah memecahkan paradoks trilema tanpa mengubah arsitektur secara mendasar, biasanya dengan memanfaatkan teknik rekayasa perangkat lunak untuk mengoptimalkan node. Ini selalu menyesatkan, karena menjalankan node di rantai ini jauh lebih sulit dibandingkan menjalankan node di Ethereum. Artikel ini akan membahas mengapa hal ini terjadi, dan mengapa hanya dengan rekayasa perangkat lunak klien L1 saja tidak dapat memperluas Ethereum?
Namun, kombinasi sampling ketersediaan data dengan SNARKs memang menyelesaikan paradoks segitiga: ini memungkinkan klien untuk memverifikasi sejumlah data yang tersedia dengan hanya mengunduh sejumlah kecil data dan melakukan sedikit perhitungan. SNARKs adalah tanpa kepercayaan. Sampling ketersediaan data memiliki model kepercayaan few-of-N yang halus, tetapi mempertahankan karakteristik dasar dari rantai yang tidak dapat diskalakan, yaitu bahkan serangan 51% tidak dapat memaksa blok jahat untuk diterima oleh jaringan.
Salah satu metode lain untuk memecahkan masalah tiga kesulitan adalah arsitektur Plasma, yang menggunakan teknologi cerdik untuk mendorong tanggung jawab ketersediaan data yang dapat dipantau kepada pengguna dengan cara yang kompatibel dengan insentif. Pada tahun 2017-2019, ketika kita hanya memiliki bukti penipuan sebagai satu-satunya cara untuk memperluas kapasitas komputasi, Plasma sangat terbatas dalam eksekusi yang aman. Namun, dengan berkembangnya SNARKs( bukti nol pengetahuan yang ringkas dan non-interaktif), arsitektur Plasma menjadi lebih layak untuk berbagai skenario penggunaan yang lebih luas dibandingkan sebelumnya.
Kemajuan lebih lanjut dalam pengambilan sampel ketersediaan data
Kami sedang menyelesaikan masalah apa?
Pada tanggal 13 Maret 2024, saat pembaruan Dencun diluncurkan, blockchain Ethereum memiliki 3 blob sekitar 125 kB setiap slot yang berlangsung setiap 12 detik, atau bandwidth data yang tersedia setiap slot sekitar 375 kB. Jika data transaksi diterbitkan langsung di blockchain, maka transfer ERC20 sekitar 180 byte, sehingga maksimum TPS Rollup di Ethereum adalah: 375000 / 12 / 180 = 173.6 TPS
Jika kita menambahkan nilai maksimum teoritis calldata Ethereum (: setiap slot 30 juta Gas / setiap byte 16 gas = setiap slot 1.875.000 byte ), maka menjadi 607 TPS. Menggunakan PeerDAS, jumlah blob dapat meningkat menjadi 8-16, yang akan memberikan 463-926 TPS untuk calldata.
Ini adalah peningkatan besar untuk Ethereum L1, tetapi masih belum cukup. Kami ingin lebih banyak skalabilitas. Tujuan jangka menengah kami adalah 16 MB per slot, dan jika dikombinasikan dengan perbaikan kompresi data Rollup, akan menghasilkan ~58000 TPS.
Apa itu? Bagaimana cara kerjanya?
PeerDAS adalah implementasi yang relatif sederhana dari "1D sampling". Di Ethereum, setiap blob adalah polinomial derajat 4096 pada bidang prima 253-bit (. Kami menyiarkan shares polinomial, di mana setiap shares berisi 16 nilai evaluasi dari 16 koordinat yang berdekatan dari total 8192 koordinat. Dari 8192 nilai evaluasi ini, 4096 mana pun ) dapat memulihkan blob berdasarkan parameter yang diajukan saat ini: 64 dari 128 kemungkinan sampel mana pun (.
Mekanisme kerja PeerDAS adalah membuat setiap klien mendengarkan sejumlah kecil sub-jaringan, di mana sub-jaringan ke-i menyiarkan sampel ke-i dari setiap blob, dan dengan menanyakan kepada rekan-rekan di jaringan p2p global ) siapa yang akan mendengarkan sub-jaringan yang berbeda ( untuk meminta blob yang dibutuhkannya dari sub-jaringan lainnya. Versi yang lebih konservatif, SubnetDAS, hanya menggunakan mekanisme sub-jaringan tanpa pertanyaan tambahan ke lapisan rekan. Proposal saat ini adalah agar node yang berpartisipasi dalam bukti kepemilikan menggunakan SubnetDAS, sementara node lainnya ) yaitu klien ( menggunakan PeerDAS.
Secara teori, kita dapat memperluas skala "1D sampling" cukup besar: jika kita meningkatkan jumlah maksimum blob menjadi 256) dengan target 128(, maka kita dapat mencapai target 16MB, di mana setiap node dalam sampling ketersediaan data memiliki 16 sampel * 128 blob * setiap blob setiap sampel 512 byte = bandwidth data 1 MB per slot. Ini hanya sedikit berada dalam batas toleransi kami: ini mungkin, tetapi itu berarti klien dengan bandwidth terbatas tidak dapat melakukan sampling. Kita dapat mengoptimalkan ini sampai batas tertentu dengan mengurangi jumlah blob dan meningkatkan ukuran blob, tetapi ini akan meningkatkan biaya rekonstruksi.
![Vitalik baru: masa depan Ethereum yang mungkin, The Surge])https://img-cdn.gateio.im/webp-social/moments-40311fde406a2b6c83ba590c35e23a7c.webp(
Oleh karena itu, kami akhirnya ingin melangkah lebih jauh, melakukan 2D sampling )2D sampling(, metode ini tidak hanya melakukan pengambilan sampel acak di dalam blob, tetapi juga melakukan pengambilan sampel acak antar blob. Dengan memanfaatkan sifat linier dari komitmen KZG, melalui satu set blob virtual baru untuk memperluas kumpulan blob dalam satu blok, blob virtual ini redundan mengkodekan informasi yang sama.
Oleh karena itu, pada akhirnya kami ingin melangkah lebih jauh, melakukan sampling 2D, yang tidak hanya melakukan sampling acak di dalam blob, tetapi juga di antara blob. Sifat linear dari janji KZG digunakan untuk memperluas kumpulan blob dalam satu blok, yang berisi daftar blob virtual baru yang melakukan pengkodean redundan terhadap informasi yang sama.
Penting untuk dicatat bahwa perpanjangan komitmen tidak memerlukan blob, sehingga skema ini pada dasarnya ramah terhadap pembangunan blok terdistribusi. Node yang benar-benar membangun blok hanya perlu memiliki komitmen blob KZG, dan mereka dapat bergantung pada sampling ketersediaan data )DAS( untuk memverifikasi ketersediaan blok data. Sampling ketersediaan data satu dimensi )1D DAS( pada dasarnya juga ramah terhadap pembangunan blok terdistribusi.
) Apa lagi yang perlu dilakukan? Apa saja pertimbangannya?
Selanjutnya adalah menyelesaikan implementasi dan peluncuran PeerDAS. Setelah itu, jumlah blob di PeerDAS akan terus ditambah, sambil mengamati jaringan dengan cermat dan meningkatkan perangkat lunak untuk memastikan keamanan, ini adalah proses bertahap. Pada saat yang sama, kami berharap ada lebih banyak pekerjaan akademis untuk menstandarkan PeerDAS dan versi DAS lainnya serta interaksi mereka dengan masalah keamanan seperti aturan pemilihan fork.
Pada tahap yang lebih jauh di masa depan, kita perlu melakukan lebih banyak pekerjaan untuk menentukan versi ideal dari 2D DAS dan membuktikan sifat keamanannya. Kami juga berharap akhirnya dapat beralih dari KZG ke alternatif yang aman secara kuantum dan tidak memerlukan pengaturan yang tepercaya. Saat ini, kami masih belum jelas tentang kandidat mana yang ramah terhadap pembangunan blok terdistribusi. Bahkan dengan menggunakan teknologi "brute force" yang mahal, yaitu menggunakan STARK rekursif untuk menghasilkan bukti validitas yang digunakan untuk merekonstruksi baris dan kolom, itu masih tidak cukup untuk memenuhi kebutuhan, karena meskipun secara teknis, ukuran satu STARK adalah O(log)n### * log(log(n)( nilai hash ( menggunakan STIR), tetapi pada kenyataannya STARK hampir sebesar seluruh blob.
Saya pikir jalur realitas jangka panjang adalah:
Melaksanakan DAS 2D yang ideal;
Terus gunakan 1D DAS,牺牲 efisiensi bandwidth sampling, demi kesederhanaan dan ketahanan menerima batas data yang lebih rendah
Meninggalkan DA, sepenuhnya menerima Plasma sebagai arsitektur Layer2 utama yang menjadi fokus kami.
Harap dicatat, bahkan jika kami memutuskan untuk memperluas eksekusi langsung di lapisan L1, pilihan ini tetap ada. Ini karena jika lapisan L1 harus menangani jumlah TPS yang besar, blok L1 akan menjadi sangat besar, dan klien akan menginginkan cara yang efisien untuk memverifikasi kebenarannya, oleh karena itu kami harus menggunakan teknologi yang sama di lapisan L1 seperti Rollup) seperti ZK-EVM dan DAS(.
) Bagaimana cara berinteraksi dengan bagian lain dari peta jalan?
Jika data kompresi diimplementasikan, permintaan untuk 2D DAS akan berkurang, atau setidaknya akan tertunda, jika Plasma digunakan secara luas, maka permintaan akan berkurang lebih lanjut. DAS juga menantang protokol dan mekanisme pembangunan blockchain terdistribusi: meskipun DAS secara teoritis ramah terhadap rekonstruksi terdistribusi, dalam praktiknya hal ini perlu dikombinasikan dengan proposal daftar inklusi paket dan mekanisme pemilihan fork di sekitarnya.
Kompresi Data
( Apa masalah yang sedang kita selesaikan?
Setiap transaksi dalam Rollup akan memakan banyak ruang data di on-chain: Transaksi ERC20 membutuhkan sekitar 180 byte. Bahkan dengan sampling ketersediaan data yang ideal, ini membatasi skalabilitas protokol Layer. Setiap slot 16 MB, kami mendapatkan:
16000000 / 12 / 180 = 7407 TPS
Bagaimana jika kita tidak hanya bisa menyelesaikan masalah pembilang, tetapi juga menyelesaikan masalah penyebut, sehingga setiap transaksi dalam Rollup memakan lebih sedikit byte di blockchain?
Apa itu, bagaimana cara kerjanya?
Menurut saya, penjelasan terbaik adalah gambar ini dari dua tahun yang lalu:
![Vitalik new article: Ethereum's possible future, The Surge])https://img-cdn.gateio.im/webp-social/moments-5d1a322bd6b6dfef0dbb78017226633d.webp###
Dalam kompresi byte nol, setiap urutan byte nol yang panjang digantikan dengan dua byte yang menunjukkan berapa banyak byte nol yang ada. Lebih lanjut, kami memanfaatkan atribut spesifik dari transaksi:
Agregasi tanda tangan: Kami beralih dari tanda tangan ECDSA ke tanda tangan BLS. Karakteristik tanda tangan BLS adalah bahwa beberapa tanda tangan dapat digabungkan menjadi satu tanda tangan tunggal, yang dapat membuktikan keabsahan semua tanda tangan asli. Di lapisan L1, karena bahkan dengan agregasi, biaya komputasi verifikasi tetap tinggi, maka penggunaan tanda tangan BLS tidak dipertimbangkan. Namun, dalam lingkungan L2 yang kekurangan data seperti ini, penggunaan tanda tangan BLS menjadi berarti. Fitur agregasi ERC-4337 menyediakan jalan untuk mewujudkan fungsi ini.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
11 Suka
Hadiah
11
6
Bagikan
Komentar
0/400
DeFiGrayling
· 17jam yang lalu
L2 bertaruh pada bull run besar
Lihat AsliBalas0
QuorumVoter
· 17jam yang lalu
Lihatlah, itu semua cara lama.
Lihat AsliBalas0
TestnetNomad
· 17jam yang lalu
v神 kembali beraksi
Lihat AsliBalas0
WenAirdrop
· 17jam yang lalu
Lagi-lagi menggambar kue V神
Lihat AsliBalas0
WhaleMistaker
· 17jam yang lalu
L2 jalur sudah sangat kompetitif
Lihat AsliBalas0
PumpDoctrine
· 17jam yang lalu
gas tidak berubah atau tidak, semua tergantung pada kata-kata si V tua
Vitalik memandang masa depan Ethereum: Bagaimana The Surge mencapai perluasan 100.000 TPS
Tulisan Baru Vitalik: Masa Depan Ethereum yang Mungkin, The Surge
Peta jalan Ethereum awalnya mencakup dua strategi skalabilitas: sharding dan protokol Layer2. Kedua jalur ini akhirnya bergabung menjadi peta jalan yang berfokus pada Rollup, yang masih menjadi strategi ekspansi Ethereum saat ini. Peta jalan yang berfokus pada Rollup mengusulkan pembagian tugas yang sederhana: Ethereum L1 fokus untuk menjadi lapisan dasar yang kuat dan terdesentralisasi, sementara L2 bertugas membantu ekosistem untuk berkembang.
Tahun ini, peta jalan yang berfokus pada Rollup telah mencapai hasil penting: dengan diluncurkannya blob EIP-4844, bandwidth data Ethereum L1 meningkat secara signifikan, dan beberapa Ethereum Virtual Machine (EVM) Rollup telah memasuki tahap pertama. Setiap L2 ada sebagai "sharding" yang memiliki aturan dan logika internalnya sendiri, dan keberagaman serta variasi cara implementasi sharding kini telah menjadi kenyataan. Namun, seperti yang kita lihat, mengikuti jalur ini juga menghadapi beberapa tantangan unik. Oleh karena itu, tugas kita sekarang adalah menyelesaikan peta jalan yang berfokus pada Rollup dan mengatasi masalah ini, sambil mempertahankan ketahanan dan desentralisasi yang khas dari Ethereum L1.
The Surge: Tujuan Kunci
Di masa depan, Ethereum dapat mencapai lebih dari 100.000 TPS melalui L2;
Mempertahankan desentralisasi dan ketahanan L1;
Setidaknya beberapa L2 sepenuhnya mewarisi atribut inti Ethereum ( yang tidak memerlukan kepercayaan, terbuka, dan tahan sensor );
Ethereum seharusnya terasa seperti sebuah ekosistem yang terpadu, bukan 34 blockchain yang berbeda.
Isi Bab Ini
Paradoks Segitiga Skalabilitas
Paradoks segitiga skalabilitas adalah sebuah ide yang diusulkan pada tahun 2017, yang berpendapat bahwa terdapat kontradiksi antara tiga karakteristik blockchain: desentralisasi ( lebih spesifik lagi: biaya menjalankan node yang rendah ), skalabilitas ( jumlah transaksi yang diproses banyak ) dan keamanan ( penyerang perlu merusak sebagian besar node dalam jaringan untuk membuat satu transaksi gagal ).
Perlu dicatat bahwa paradoks segitiga bukanlah sebuah teorema, dan pos yang memperkenalkan paradoks segitiga juga tidak dilengkapi dengan bukti matematis. Ini memang memberikan argumen matematis heuristik: jika sebuah node ramah terdesentralisasi (, misalnya, laptop konsumen ) dapat memverifikasi N transaksi per detik, dan Anda memiliki rantai yang dapat memproses k*N transaksi per detik, maka (i) setiap transaksi hanya dapat dilihat oleh 1/k node, yang berarti penyerang hanya perlu merusak beberapa node untuk melakukan transaksi jahat, atau (ii) node Anda akan menjadi kuat, sementara rantai Anda tidak akan terdesentralisasi. Tujuan artikel ini sama sekali bukan untuk membuktikan bahwa memecahkan paradoks segitiga tidak mungkin; sebaliknya, ini bertujuan untuk menunjukkan bahwa memecahkan paradoks tiga adalah sulit dan memerlukan semacam pemikiran di luar kerangka argumen yang tersirat.
Selama bertahun-tahun, beberapa rantai berkinerja tinggi sering mengklaim bahwa mereka telah memecahkan paradoks trilema tanpa mengubah arsitektur secara mendasar, biasanya dengan memanfaatkan teknik rekayasa perangkat lunak untuk mengoptimalkan node. Ini selalu menyesatkan, karena menjalankan node di rantai ini jauh lebih sulit dibandingkan menjalankan node di Ethereum. Artikel ini akan membahas mengapa hal ini terjadi, dan mengapa hanya dengan rekayasa perangkat lunak klien L1 saja tidak dapat memperluas Ethereum?
Namun, kombinasi sampling ketersediaan data dengan SNARKs memang menyelesaikan paradoks segitiga: ini memungkinkan klien untuk memverifikasi sejumlah data yang tersedia dengan hanya mengunduh sejumlah kecil data dan melakukan sedikit perhitungan. SNARKs adalah tanpa kepercayaan. Sampling ketersediaan data memiliki model kepercayaan few-of-N yang halus, tetapi mempertahankan karakteristik dasar dari rantai yang tidak dapat diskalakan, yaitu bahkan serangan 51% tidak dapat memaksa blok jahat untuk diterima oleh jaringan.
Salah satu metode lain untuk memecahkan masalah tiga kesulitan adalah arsitektur Plasma, yang menggunakan teknologi cerdik untuk mendorong tanggung jawab ketersediaan data yang dapat dipantau kepada pengguna dengan cara yang kompatibel dengan insentif. Pada tahun 2017-2019, ketika kita hanya memiliki bukti penipuan sebagai satu-satunya cara untuk memperluas kapasitas komputasi, Plasma sangat terbatas dalam eksekusi yang aman. Namun, dengan berkembangnya SNARKs( bukti nol pengetahuan yang ringkas dan non-interaktif), arsitektur Plasma menjadi lebih layak untuk berbagai skenario penggunaan yang lebih luas dibandingkan sebelumnya.
Kemajuan lebih lanjut dalam pengambilan sampel ketersediaan data
Kami sedang menyelesaikan masalah apa?
Pada tanggal 13 Maret 2024, saat pembaruan Dencun diluncurkan, blockchain Ethereum memiliki 3 blob sekitar 125 kB setiap slot yang berlangsung setiap 12 detik, atau bandwidth data yang tersedia setiap slot sekitar 375 kB. Jika data transaksi diterbitkan langsung di blockchain, maka transfer ERC20 sekitar 180 byte, sehingga maksimum TPS Rollup di Ethereum adalah: 375000 / 12 / 180 = 173.6 TPS
Jika kita menambahkan nilai maksimum teoritis calldata Ethereum (: setiap slot 30 juta Gas / setiap byte 16 gas = setiap slot 1.875.000 byte ), maka menjadi 607 TPS. Menggunakan PeerDAS, jumlah blob dapat meningkat menjadi 8-16, yang akan memberikan 463-926 TPS untuk calldata.
Ini adalah peningkatan besar untuk Ethereum L1, tetapi masih belum cukup. Kami ingin lebih banyak skalabilitas. Tujuan jangka menengah kami adalah 16 MB per slot, dan jika dikombinasikan dengan perbaikan kompresi data Rollup, akan menghasilkan ~58000 TPS.
Apa itu? Bagaimana cara kerjanya?
PeerDAS adalah implementasi yang relatif sederhana dari "1D sampling". Di Ethereum, setiap blob adalah polinomial derajat 4096 pada bidang prima 253-bit (. Kami menyiarkan shares polinomial, di mana setiap shares berisi 16 nilai evaluasi dari 16 koordinat yang berdekatan dari total 8192 koordinat. Dari 8192 nilai evaluasi ini, 4096 mana pun ) dapat memulihkan blob berdasarkan parameter yang diajukan saat ini: 64 dari 128 kemungkinan sampel mana pun (.
Mekanisme kerja PeerDAS adalah membuat setiap klien mendengarkan sejumlah kecil sub-jaringan, di mana sub-jaringan ke-i menyiarkan sampel ke-i dari setiap blob, dan dengan menanyakan kepada rekan-rekan di jaringan p2p global ) siapa yang akan mendengarkan sub-jaringan yang berbeda ( untuk meminta blob yang dibutuhkannya dari sub-jaringan lainnya. Versi yang lebih konservatif, SubnetDAS, hanya menggunakan mekanisme sub-jaringan tanpa pertanyaan tambahan ke lapisan rekan. Proposal saat ini adalah agar node yang berpartisipasi dalam bukti kepemilikan menggunakan SubnetDAS, sementara node lainnya ) yaitu klien ( menggunakan PeerDAS.
Secara teori, kita dapat memperluas skala "1D sampling" cukup besar: jika kita meningkatkan jumlah maksimum blob menjadi 256) dengan target 128(, maka kita dapat mencapai target 16MB, di mana setiap node dalam sampling ketersediaan data memiliki 16 sampel * 128 blob * setiap blob setiap sampel 512 byte = bandwidth data 1 MB per slot. Ini hanya sedikit berada dalam batas toleransi kami: ini mungkin, tetapi itu berarti klien dengan bandwidth terbatas tidak dapat melakukan sampling. Kita dapat mengoptimalkan ini sampai batas tertentu dengan mengurangi jumlah blob dan meningkatkan ukuran blob, tetapi ini akan meningkatkan biaya rekonstruksi.
![Vitalik baru: masa depan Ethereum yang mungkin, The Surge])https://img-cdn.gateio.im/webp-social/moments-40311fde406a2b6c83ba590c35e23a7c.webp(
Oleh karena itu, kami akhirnya ingin melangkah lebih jauh, melakukan 2D sampling )2D sampling(, metode ini tidak hanya melakukan pengambilan sampel acak di dalam blob, tetapi juga melakukan pengambilan sampel acak antar blob. Dengan memanfaatkan sifat linier dari komitmen KZG, melalui satu set blob virtual baru untuk memperluas kumpulan blob dalam satu blok, blob virtual ini redundan mengkodekan informasi yang sama.
Oleh karena itu, pada akhirnya kami ingin melangkah lebih jauh, melakukan sampling 2D, yang tidak hanya melakukan sampling acak di dalam blob, tetapi juga di antara blob. Sifat linear dari janji KZG digunakan untuk memperluas kumpulan blob dalam satu blok, yang berisi daftar blob virtual baru yang melakukan pengkodean redundan terhadap informasi yang sama.
Penting untuk dicatat bahwa perpanjangan komitmen tidak memerlukan blob, sehingga skema ini pada dasarnya ramah terhadap pembangunan blok terdistribusi. Node yang benar-benar membangun blok hanya perlu memiliki komitmen blob KZG, dan mereka dapat bergantung pada sampling ketersediaan data )DAS( untuk memverifikasi ketersediaan blok data. Sampling ketersediaan data satu dimensi )1D DAS( pada dasarnya juga ramah terhadap pembangunan blok terdistribusi.
) Apa lagi yang perlu dilakukan? Apa saja pertimbangannya?
Selanjutnya adalah menyelesaikan implementasi dan peluncuran PeerDAS. Setelah itu, jumlah blob di PeerDAS akan terus ditambah, sambil mengamati jaringan dengan cermat dan meningkatkan perangkat lunak untuk memastikan keamanan, ini adalah proses bertahap. Pada saat yang sama, kami berharap ada lebih banyak pekerjaan akademis untuk menstandarkan PeerDAS dan versi DAS lainnya serta interaksi mereka dengan masalah keamanan seperti aturan pemilihan fork.
Pada tahap yang lebih jauh di masa depan, kita perlu melakukan lebih banyak pekerjaan untuk menentukan versi ideal dari 2D DAS dan membuktikan sifat keamanannya. Kami juga berharap akhirnya dapat beralih dari KZG ke alternatif yang aman secara kuantum dan tidak memerlukan pengaturan yang tepercaya. Saat ini, kami masih belum jelas tentang kandidat mana yang ramah terhadap pembangunan blok terdistribusi. Bahkan dengan menggunakan teknologi "brute force" yang mahal, yaitu menggunakan STARK rekursif untuk menghasilkan bukti validitas yang digunakan untuk merekonstruksi baris dan kolom, itu masih tidak cukup untuk memenuhi kebutuhan, karena meskipun secara teknis, ukuran satu STARK adalah O(log)n### * log(log(n)( nilai hash ( menggunakan STIR), tetapi pada kenyataannya STARK hampir sebesar seluruh blob.
Saya pikir jalur realitas jangka panjang adalah:
Harap dicatat, bahkan jika kami memutuskan untuk memperluas eksekusi langsung di lapisan L1, pilihan ini tetap ada. Ini karena jika lapisan L1 harus menangani jumlah TPS yang besar, blok L1 akan menjadi sangat besar, dan klien akan menginginkan cara yang efisien untuk memverifikasi kebenarannya, oleh karena itu kami harus menggunakan teknologi yang sama di lapisan L1 seperti Rollup) seperti ZK-EVM dan DAS(.
) Bagaimana cara berinteraksi dengan bagian lain dari peta jalan?
Jika data kompresi diimplementasikan, permintaan untuk 2D DAS akan berkurang, atau setidaknya akan tertunda, jika Plasma digunakan secara luas, maka permintaan akan berkurang lebih lanjut. DAS juga menantang protokol dan mekanisme pembangunan blockchain terdistribusi: meskipun DAS secara teoritis ramah terhadap rekonstruksi terdistribusi, dalam praktiknya hal ini perlu dikombinasikan dengan proposal daftar inklusi paket dan mekanisme pemilihan fork di sekitarnya.
Kompresi Data
( Apa masalah yang sedang kita selesaikan?
Setiap transaksi dalam Rollup akan memakan banyak ruang data di on-chain: Transaksi ERC20 membutuhkan sekitar 180 byte. Bahkan dengan sampling ketersediaan data yang ideal, ini membatasi skalabilitas protokol Layer. Setiap slot 16 MB, kami mendapatkan:
16000000 / 12 / 180 = 7407 TPS
Bagaimana jika kita tidak hanya bisa menyelesaikan masalah pembilang, tetapi juga menyelesaikan masalah penyebut, sehingga setiap transaksi dalam Rollup memakan lebih sedikit byte di blockchain?
Apa itu, bagaimana cara kerjanya?
Menurut saya, penjelasan terbaik adalah gambar ini dari dua tahun yang lalu:
![Vitalik new article: Ethereum's possible future, The Surge])https://img-cdn.gateio.im/webp-social/moments-5d1a322bd6b6dfef0dbb78017226633d.webp###
Dalam kompresi byte nol, setiap urutan byte nol yang panjang digantikan dengan dua byte yang menunjukkan berapa banyak byte nol yang ada. Lebih lanjut, kami memanfaatkan atribut spesifik dari transaksi:
Agregasi tanda tangan: Kami beralih dari tanda tangan ECDSA ke tanda tangan BLS. Karakteristik tanda tangan BLS adalah bahwa beberapa tanda tangan dapat digabungkan menjadi satu tanda tangan tunggal, yang dapat membuktikan keabsahan semua tanda tangan asli. Di lapisan L1, karena bahkan dengan agregasi, biaya komputasi verifikasi tetap tinggi, maka penggunaan tanda tangan BLS tidak dipertimbangkan. Namun, dalam lingkungan L2 yang kekurangan data seperti ini, penggunaan tanda tangan BLS menjadi berarti. Fitur agregasi ERC-4337 menyediakan jalan untuk mewujudkan fungsi ini.
gunakan