Багато проектів спочатку протягом перших кількох місяців не мають явної реакції, справжні проблеми зазвичай виявляються лише через 6-12 місяців.
Причина досить проста. Дані поведінки користувачів, записи стану, журнали — ці речі щодня додають лише кілька десятків КБ, але за рік їх сукупний обсяг становить 10-30 ГБ. Традиційне децентралізоване зберігання на цьому етапі починає виглядати пасивним — кожне оновлення вимагає переписування, історичні версії безперервно накопичуються, посилальні зв’язки стають все більш заплутаними.
Якщо поглянути з іншого боку? Варто розглядати "довгострокове накопичення" як початкову передумову. Об’єкт має зберігати свою ідентичність і посилання незмінними, але стан може постійно еволюціонувати, а не кожного року створювати новий об’єкт. В чому переваги такої конструкції?
З відкритих даних видно, що протоколи типу Walrus демонструють хороші результати у цьому напрямку: один об’єкт підтримує обсяг даних у МБ, один і той самий об’єкт може оновлювати стан кілька разів без зміни посилань, дані зберігаються з резервуванням між кількома вузлами, стабільність доступності перевищує 99%.
Реалістична оцінка: коли обсяг даних входить у фазу "часового зростання", цінність такої архітектури може бути важливішою за безперервне прагнення до низьких витрат. Але передумова — масштаб мережевих вузлів має розширюватися відповідно, інакше накопичені історичні дані стануть джерелом навантаження для системи.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
19 лайків
Нагородити
19
8
Репост
Поділіться
Прокоментувати
0/400
ImpermanentPhilosopher
· 5год тому
Вау, давно вже так потрібно було грати, традиційне зберігання дійсно стає все важчим і важчим
Переглянути оригіналвідповісти на0
SignatureVerifier
· 01-09 22:16
ngl твердження про 99% доступність потребує серйозної перевірки... наприклад, недостатньо даних моніторингу, щоб підтвердити цю статистику, чесно
Переглянути оригіналвідповісти на0
zkNoob
· 01-09 17:26
Ха-ха, ось істина підлоги: спочатку здається безпечним, а потім вибухає.
Переглянути оригіналвідповісти на0
MEVHunterNoLoss
· 01-07 19:57
Річний обсяг даних 10-30 ГБ дійсно вражає, більшість проектів навіть не очікували такого.
Переглянути оригіналвідповісти на0
NullWhisperer
· 01-07 19:53
так, затримка на 6-12 місяців насправді є ключовою... більшість команд просто не проводять стрес-тести у масштабі, поки не стане занадто пізно, чесно говорячи
Переглянути оригіналвідповісти на0
YieldWhisperer
· 01-07 19:50
Ха, знову цей трюк "виправлення багів раз на півроку"
Переглянути оригіналвідповісти на0
DaoTherapy
· 01-07 19:47
Цікаво, нарешті хтось влучив у болюче місце. За 6 місяців нічого не видно, через рік — одразу провал, таких схем бачив занадто багато.
Переглянути оригіналвідповісти на0
ApeWithAPlan
· 01-07 19:45
Нарешті хтось сказав у точку, більшість проектів помирають саме тут
Багато проектів спочатку протягом перших кількох місяців не мають явної реакції, справжні проблеми зазвичай виявляються лише через 6-12 місяців.
Причина досить проста. Дані поведінки користувачів, записи стану, журнали — ці речі щодня додають лише кілька десятків КБ, але за рік їх сукупний обсяг становить 10-30 ГБ. Традиційне децентралізоване зберігання на цьому етапі починає виглядати пасивним — кожне оновлення вимагає переписування, історичні версії безперервно накопичуються, посилальні зв’язки стають все більш заплутаними.
Якщо поглянути з іншого боку? Варто розглядати "довгострокове накопичення" як початкову передумову. Об’єкт має зберігати свою ідентичність і посилання незмінними, але стан може постійно еволюціонувати, а не кожного року створювати новий об’єкт. В чому переваги такої конструкції?
З відкритих даних видно, що протоколи типу Walrus демонструють хороші результати у цьому напрямку: один об’єкт підтримує обсяг даних у МБ, один і той самий об’єкт може оновлювати стан кілька разів без зміни посилань, дані зберігаються з резервуванням між кількома вузлами, стабільність доступності перевищує 99%.
Реалістична оцінка: коли обсяг даних входить у фазу "часового зростання", цінність такої архітектури може бути важливішою за безперервне прагнення до низьких витрат. Але передумова — масштаб мережевих вузлів має розширюватися відповідно, інакше накопичені історичні дані стануть джерелом навантаження для системи.