Récemment, j'ai réussi à implémenter la signature via le client-appareil en utilisant le framework de Privy. La clé du procédé consiste à effectuer d'abord un appel de signature de message pour précharger le cache de partage de clé — cela peut sembler insignifiant, mais cela fait toute la différence. Après avoir réchauffé le système de cette manière, vous pouvez réduire les envois automatiques côté client à environ 20 ms de latence de bout en bout (crédit aux fournisseurs d'infrastructure comme Helius pour avoir permis cette rapidité). L'approche élimine essentiellement les échanges inutiles et laisse le partage de clé en cache gérer les opérations suivantes avec un minimum de surcharge. Plutôt efficace pour les applications qui exigent des interactions utilisateur à faible latence sur la chaîne.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
10 J'aime
Récompense
10
4
Reposter
Partager
Commentaire
0/400
ser_ngmi
· 01-08 09:19
20ms ? Putain, cette latence est incroyable, enfin quelqu'un a compris comment gérer le cache keyshare
Voir l'originalRépondre0
FlatTax
· 01-07 04:50
20ms... cette opération est vraiment impressionnante, cette étape de préchauffage du cache est vraiment une idée brillante
Voir l'originalRépondre0
MissingSats
· 01-07 04:47
ngl, l'idée de préchauffage du cache keyshare est géniale, une latence de 20 ms et c'est parti directement
Voir l'originalRépondre0
defi_detective
· 01-07 04:25
20ms de latence ? Impressionnant, cette idée de préchauffage du cache est vraiment géniale
Récemment, j'ai réussi à implémenter la signature via le client-appareil en utilisant le framework de Privy. La clé du procédé consiste à effectuer d'abord un appel de signature de message pour précharger le cache de partage de clé — cela peut sembler insignifiant, mais cela fait toute la différence. Après avoir réchauffé le système de cette manière, vous pouvez réduire les envois automatiques côté client à environ 20 ms de latence de bout en bout (crédit aux fournisseurs d'infrastructure comme Helius pour avoir permis cette rapidité). L'approche élimine essentiellement les échanges inutiles et laisse le partage de clé en cache gérer les opérations suivantes avec un minimum de surcharge. Plutôt efficace pour les applications qui exigent des interactions utilisateur à faible latence sur la chaîne.