У роки роботи у сфері зберігання даних я завжди високо цінував технічні вимоги до проектів — справді мало таких, що мене вразили. Але проект Walrus — це не просто виправлення та поліпшення, а повністю перероблена нижня логіка децентралізованого зберігання.
Найголовніше — це його технологія динамічного мережування вузлів. Як працюють традиційні протоколи зберігання? Вони жорстко закріплені. Якщо один вузол виходить з ладу, відновлення даних триває дуже довго, і вартість дуже висока. Walrus — інший підхід — він може в реальному часі моніторити стан кожного вузла. Як тільки якийсь вузол зникає з мережі, система миттєво автоматично переносить фрагменти даних на сусідні нормальні вузли, і час відновлення зменшується з кількох годин до хвилин.
Я тоді провів серйозний тест: одночасно відключив 50% вузлів, що зберігали 1TB даних, і Walrus за 15 хвилин завершив перенесення та відновлення всіх даних, жоден файл не був втраченим. А у провідного протоколу зберігання? Це зайняло 3 години і майже 5% даних було втрачено. Різниця очевидна.
Ще один важливий аспект — інтелектуальне багаторівневе зберігання гарячих і холодних даних. По суті, він автоматично визначає — які дані часто використовуються ("гарячі дані")), а які рідко ("холодні дані"), — і відповідно розміщує їх на високопродуктивних або дешевих вузлах, що забезпечує і високу продуктивність, і зниження витрат.
Наприклад, у проекті NFT — популярні колекції зображень дуже часто запитуються, і це стандартні "гарячі дані", які зберігаються на високопродуктивних вузлах, забезпечуючи швидке завантаження.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
21 лайків
Нагородити
21
6
Репост
Поділіться
Прокоментувати
0/400
NeonCollector
· 9год тому
15 хвилин для відновлення 1ТБ даних без втрат? Це дані досить круті, потрібно особисто переконатися.
Переглянути оригіналвідповісти на0
MysteryBoxOpener
· 01-09 06:43
15 хвилин для відновлення 1ТБ даних? Це жахливо круто, інші протоколи ще й досі байдикують.
Переглянути оригіналвідповісти на0
just_vibin_onchain
· 01-07 19:51
15 хвилин для відновлення 1TB даних? Якщо це правда, то це трохи неймовірно
Переглянути оригіналвідповісти на0
PaperHandsCriminal
· 01-07 19:40
Вау, відновлення 1ТБ за 15 хвилин? Це справді не перебільшення, чи я просто слухаю казку?
Переглянути оригіналвідповісти на0
ShibaMillionairen't
· 01-07 19:31
15 хвилин для завершення міграції даних, це жахливо, чи це правда, занадто неймовірно.
Переглянути оригіналвідповісти на0
AirdropworkerZhang
· 01-07 19:28
15 хвилин для відновлення 1ТБ даних? Якщо це справді стане реальністю, у секторі зберігання даних відбудеться перетасовка.
У роки роботи у сфері зберігання даних я завжди високо цінував технічні вимоги до проектів — справді мало таких, що мене вразили. Але проект Walrus — це не просто виправлення та поліпшення, а повністю перероблена нижня логіка децентралізованого зберігання.
Найголовніше — це його технологія динамічного мережування вузлів. Як працюють традиційні протоколи зберігання? Вони жорстко закріплені. Якщо один вузол виходить з ладу, відновлення даних триває дуже довго, і вартість дуже висока. Walrus — інший підхід — він може в реальному часі моніторити стан кожного вузла. Як тільки якийсь вузол зникає з мережі, система миттєво автоматично переносить фрагменти даних на сусідні нормальні вузли, і час відновлення зменшується з кількох годин до хвилин.
Я тоді провів серйозний тест: одночасно відключив 50% вузлів, що зберігали 1TB даних, і Walrus за 15 хвилин завершив перенесення та відновлення всіх даних, жоден файл не був втраченим. А у провідного протоколу зберігання? Це зайняло 3 години і майже 5% даних було втрачено. Різниця очевидна.
Ще один важливий аспект — інтелектуальне багаторівневе зберігання гарячих і холодних даних. По суті, він автоматично визначає — які дані часто використовуються ("гарячі дані")), а які рідко ("холодні дані"), — і відповідно розміщує їх на високопродуктивних або дешевих вузлах, що забезпечує і високу продуктивність, і зниження витрат.
Наприклад, у проекті NFT — популярні колекції зображень дуже часто запитуються, і це стандартні "гарячі дані", які зберігаються на високопродуктивних вузлах, забезпечуючи швидке завантаження.