Muchos proyectos no muestran una reacción evidente en los primeros meses, y los problemas reales a menudo solo se revelan después de 6 a 12 meses.



La razón es bastante sencilla. Los datos de comportamiento del usuario, registros de estado y logs, parecen aumentar solo unas decenas de KB al día, pero acumulados en un año representan entre 10 y 30 GB. El almacenamiento descentralizado tradicional empieza a ser pasivo en esta etapa: cada actualización requiere reescribir todo, las versiones históricas se acumulan continuamente y las relaciones de referencia se vuelven cada vez más confusas.

¿Y si cambiamos de enfoque? Considerar la "acumulación a largo plazo" como una condición previa desde el principio. La identidad del objeto y las referencias permanecen fijas, pero el estado puede evolucionar continuamente, en lugar de crear un nuevo objeto cada año. ¿Cuáles son los beneficios de este diseño?

Según datos públicos, protocolos como Walrus muestran un rendimiento en este aspecto: un solo objeto soporta datos de tamaño en MB, el mismo objeto puede actualizar su estado varias veces sin modificar las relaciones de referencia, los datos se almacenan redundantes en múltiples nodos y la disponibilidad se mantiene por encima del 99%.

Haciendo una evaluación realista: cuando el tamaño de los datos entra en la fase de "crecimiento impulsado por el tiempo", el valor de este enfoque arquitectónico puede ser más importante que simplemente buscar costos bajos. Pero la condición previa es que la escala de nodos de la red pueda expandirse en paralelo; de lo contrario, los datos históricos acumulados pueden convertirse en una fuente de presión para el sistema.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 5
  • Republicar
  • Compartir
Comentar
0/400
MEVHunterNoLossvip
· 01-07 19:57
Una cantidad de datos de 10-30GB al año es realmente impresionante, la mayoría de los proyectos ni siquiera lo habían considerado.
Ver originalesResponder0
NullWhisperervip
· 01-07 19:53
sí, el retraso de 6-12 meses es en realidad la clave... la mayoría de los equipos simplemente no realizan pruebas de resistencia a gran escala hasta que ya es demasiado tarde, la verdad
Ver originalesResponder0
YieldWhisperervip
· 01-07 19:50
¡Vaya, otra vez esa misma historia de "los bugs explotan solo después de medio año"!
Ver originalesResponder0
DaoTherapyvip
· 01-07 19:47
Es interesante, finalmente alguien ha dado en el clavo. No se puede ver nada en 6 meses, y después de un año simplemente se desploma. He visto demasiados casos así.
Ver originalesResponder0
ApeWithAPlanvip
· 01-07 19:45
Finalmente alguien ha dado en el clavo, la mayoría de los proyectos mueren aquí
Ver originalesResponder0
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)