Muchos proyectos no muestran una reacción evidente en los primeros meses, y los problemas reales a menudo solo se revelan después de 6 a 12 meses.
La razón es bastante sencilla. Los datos de comportamiento del usuario, registros de estado y logs, parecen aumentar solo unas decenas de KB al día, pero acumulados en un año representan entre 10 y 30 GB. El almacenamiento descentralizado tradicional empieza a ser pasivo en esta etapa: cada actualización requiere reescribir todo, las versiones históricas se acumulan continuamente y las relaciones de referencia se vuelven cada vez más confusas.
¿Y si cambiamos de enfoque? Considerar la "acumulación a largo plazo" como una condición previa desde el principio. La identidad del objeto y las referencias permanecen fijas, pero el estado puede evolucionar continuamente, en lugar de crear un nuevo objeto cada año. ¿Cuáles son los beneficios de este diseño?
Según datos públicos, protocolos como Walrus muestran un rendimiento en este aspecto: un solo objeto soporta datos de tamaño en MB, el mismo objeto puede actualizar su estado varias veces sin modificar las relaciones de referencia, los datos se almacenan redundantes en múltiples nodos y la disponibilidad se mantiene por encima del 99%.
Haciendo una evaluación realista: cuando el tamaño de los datos entra en la fase de "crecimiento impulsado por el tiempo", el valor de este enfoque arquitectónico puede ser más importante que simplemente buscar costos bajos. Pero la condición previa es que la escala de nodos de la red pueda expandirse en paralelo; de lo contrario, los datos históricos acumulados pueden convertirse en una fuente de presión para el sistema.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
16 me gusta
Recompensa
16
5
Republicar
Compartir
Comentar
0/400
MEVHunterNoLoss
· 01-07 19:57
Una cantidad de datos de 10-30GB al año es realmente impresionante, la mayoría de los proyectos ni siquiera lo habían considerado.
Ver originalesResponder0
NullWhisperer
· 01-07 19:53
sí, el retraso de 6-12 meses es en realidad la clave... la mayoría de los equipos simplemente no realizan pruebas de resistencia a gran escala hasta que ya es demasiado tarde, la verdad
Ver originalesResponder0
YieldWhisperer
· 01-07 19:50
¡Vaya, otra vez esa misma historia de "los bugs explotan solo después de medio año"!
Ver originalesResponder0
DaoTherapy
· 01-07 19:47
Es interesante, finalmente alguien ha dado en el clavo. No se puede ver nada en 6 meses, y después de un año simplemente se desploma. He visto demasiados casos así.
Ver originalesResponder0
ApeWithAPlan
· 01-07 19:45
Finalmente alguien ha dado en el clavo, la mayoría de los proyectos mueren aquí
Muchos proyectos no muestran una reacción evidente en los primeros meses, y los problemas reales a menudo solo se revelan después de 6 a 12 meses.
La razón es bastante sencilla. Los datos de comportamiento del usuario, registros de estado y logs, parecen aumentar solo unas decenas de KB al día, pero acumulados en un año representan entre 10 y 30 GB. El almacenamiento descentralizado tradicional empieza a ser pasivo en esta etapa: cada actualización requiere reescribir todo, las versiones históricas se acumulan continuamente y las relaciones de referencia se vuelven cada vez más confusas.
¿Y si cambiamos de enfoque? Considerar la "acumulación a largo plazo" como una condición previa desde el principio. La identidad del objeto y las referencias permanecen fijas, pero el estado puede evolucionar continuamente, en lugar de crear un nuevo objeto cada año. ¿Cuáles son los beneficios de este diseño?
Según datos públicos, protocolos como Walrus muestran un rendimiento en este aspecto: un solo objeto soporta datos de tamaño en MB, el mismo objeto puede actualizar su estado varias veces sin modificar las relaciones de referencia, los datos se almacenan redundantes en múltiples nodos y la disponibilidad se mantiene por encima del 99%.
Haciendo una evaluación realista: cuando el tamaño de los datos entra en la fase de "crecimiento impulsado por el tiempo", el valor de este enfoque arquitectónico puede ser más importante que simplemente buscar costos bajos. Pero la condición previa es que la escala de nodos de la red pueda expandirse en paralelo; de lo contrario, los datos históricos acumulados pueden convertirse en una fuente de presión para el sistema.