Recentemente, os agentes de IA têm causado uma onda de entusiasmo no DeFi e nos sistemas financeiros, todos competindo — quem tem o modelo mais rápido, quem apresenta o desempenho mais forte. Mas há uma questão frequentemente negligenciada: uma vez que o sistema comete um erro, quem paga a conta?
A resposta tradicional é "confie em mim". Mas há projetos que oferecem uma abordagem diferente — falar através da matemática. Em vez de confiar em promessas para manter a confiança, é melhor que cada decisão seja apoiada por provas criptográficas. A ideia de cálculo verificável transforma cada operação do agente em um registro de dados transparente e rastreável. Assim, o risco passa de "confio em uma equipe" para "confio na matemática".
Essa mudança, embora pareça sutil, na verdade altera toda a dinâmica do jogo.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
20 gostos
Recompensa
20
5
Republicar
Partilhar
Comentar
0/400
ProposalDetective
· 2025-12-31 12:48
Dizeres que sim, confiar na prova criptográfica é mais sólido do que confiar em promessas de equipa... mas o problema é que a maioria dos projetos ainda está a enganar.
Na minha opinião, os verdadeiramente totalmente verificáveis são contados, os outros estão a enganar os investidores.
Isto é o que o Web3 deveria ser, a matemática não engana.
A IA tem estado em alta há tanto tempo, e também há muitos casos de erros, alguém já foi compensado?
A computação verificável parece avançada, mas na prática... depende de como é realmente implementada.
Inacreditável, ainda há projetos que dizem que basta confiar neles, é de rir.
Ver originalResponder0
AirdropNinja
· 2025-12-30 09:58
Ou seja, é uma atualização do mecanismo de transferência de culpa, de "confie em mim" para "confie na criptografia". Parece sofisticado, mas na prática é a mesma coisa.
Quem é responsável se a matemática apresentar bugs?
Mais uma rodada de projetos fazendo promessas vazias.
Ver originalResponder0
ForkThisDAO
· 2025-12-30 09:44
Isto é mesmo o que eu quero ver, muito mais confiável do que aqueles projetos que só sabem fazer bravatas
Ver originalResponder0
PumpDoctrine
· 2025-12-30 09:35
Não precisa complicar tanto, provas matemáticas parecem realmente vazias.
Isso é realmente, a criptografia como garantia não é nada de novo, né?
Mais uma vez, cálculo verificável e decisão transparente, parecem bonitos na teoria, mas se der problema quem vai pagar?
Em 2026 ainda espera que a IA salve o mercado? Primeiro, controle os riscos antes de sair por aí fazendo bravatas.
De "acredite em mim" para "acredite na matemática", no final das contas ainda é preciso confiar naquele colega que escreve código.
2025年最后一天就要翻篇了,2026即将启幕。
Recentemente, os agentes de IA têm causado uma onda de entusiasmo no DeFi e nos sistemas financeiros, todos competindo — quem tem o modelo mais rápido, quem apresenta o desempenho mais forte. Mas há uma questão frequentemente negligenciada: uma vez que o sistema comete um erro, quem paga a conta?
A resposta tradicional é "confie em mim". Mas há projetos que oferecem uma abordagem diferente — falar através da matemática. Em vez de confiar em promessas para manter a confiança, é melhor que cada decisão seja apoiada por provas criptográficas. A ideia de cálculo verificável transforma cada operação do agente em um registro de dados transparente e rastreável. Assim, o risco passa de "confio em uma equipe" para "confio na matemática".
Essa mudança, embora pareça sutil, na verdade altera toda a dinâmica do jogo.