OpenLedger cria infraestrutura econômica de inteligência artificial, construindo um ecossistema de incentivo a modelos de IA com validação confiável.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

I. Introdução | A transição da camada de modelo da Crypto AI

Dados, modelos e poder de computação são os três principais elementos da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder de computação), sendo todos indispensáveis. Assim como o caminho de evolução da infraestrutura da indústria de IA tradicional, o campo do Crypto AI também passou por etapas semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competir em poder de computação". No entanto, ao entrar em 2025, o foco da indústria começou a se deslocar gradualmente para os níveis de modelo e dados, marcando a transição do Crypto AI de uma competição por recursos de base para uma construção de nível médio com maior sustentabilidade e valor de aplicação.

Modelo Generativo Universal (LLM) vs Modelo Especializado (SLM)

Os modelos de linguagem tradicionais (LLM) dependem fortemente de grandes conjuntos de dados e arquiteturas distribuídas complexas, com escalas de parâmetros que variam de 70B a 500B, e o custo de um único treinamento pode chegar a milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve de modelo base reutilizável, geralmente é baseado em modelos de código aberto como LLaMA, Mistral e DeepSeek, combinando uma pequena quantidade de dados profissionais de alta qualidade e tecnologias como LoRA, para construir rapidamente modelos de especialistas com conhecimento em áreas específicas, reduzindo significativamente os custos de treinamento e as barreiras técnicas.

É importante notar que o SLM não será integrado nos pesos do LLM, mas sim colaborará com o LLM através da chamada da arquitetura Agent, do sistema de plugins de roteamento dinâmico, da hot-plug dos módulos LoRA, e do RAG (Geração Aumentada por Recuperação). Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente modular altamente flexível.

O valor e os limites da Crypto AI no nível do modelo

Os projetos de Crypto AI são essencialmente difíceis de melhorar diretamente as capacidades centrais dos modelos de linguagem grandes (LLM), e a razão principal é que

  • Barreiras tecnológicas demasiado altas: a escala de dados, os recursos computacionais e a capacidade de engenharia necessários para treinar um Modelo Fundamental são extremamente grandes, atualmente apenas grandes empresas de tecnologia como os Estados Unidos e a China possuem essa capacidade.
  • Limitações do ecossistema de código aberto: Embora modelos de base mainstream como LLaMA e Mixtral já tenham sido abertos, a verdadeira chave para impulsionar a quebra de modelos ainda se concentra em instituições de pesquisa e sistemas de engenharia fechados, e o espaço de participação de projetos em cadeia no nível do modelo central é limitado.

No entanto, em cima de modelos de base de código aberto, os projetos de Crypto AI ainda podem estender o valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia industrial de IA, isso se manifesta em duas direções principais:

  • Camada de verificação confiável: através do registo em cadeia do caminho de geração do modelo, contribuição de dados e utilização, aumenta a rastreabilidade e a capacidade de resistência à adulteração das saídas de IA.
  • Mecanismo de incentivo: Através do Token nativo, utilizado para incentivar o upload de dados, a chamada de modelos, a execução de agentes (Agent), entre outras ações, construindo um ciclo positivo de treinamento e serviço de modelos.

Classificação de tipos de modelo de IA e análise de aplicabilidade da blockchain

Assim, pode-se ver que os pontos de viabilidade dos projetos de Crypto AI do tipo modelo se concentram principalmente na leve afinação de SLM de pequeno porte, na integração e verificação de dados em cadeia da arquitetura RAG, e na implementação local e incentivos de modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado na "camada de interface" da IA.

Baseada em dados e modelos, a cadeia de blocos AI pode registrar de forma clara e inalterável a origem das contribuições de cada dado e modelo, melhorando significativamente a credibilidade dos dados e a rastreabilidade do treinamento do modelo. Ao mesmo tempo, através do mecanismo de contratos inteligentes, distribuições de recompensas são automaticamente acionadas quando os dados ou modelos são utilizados, transformando o comportamento da IA em valor tokenizado mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo através de votação com tokens, participar na formulação e iteração de regras, aprimorando a estrutura de governança descentralizada.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Dois, Visão Geral do Projeto | A visão da cadeia de IA da OpenLedger

OpenLedger é um dos poucos projetos de IA em blockchain que se concentra em mecanismos de incentivo para dados e modelos no mercado atual. Ele foi o primeiro a propor o conceito de "Payable AI", com o objetivo de construir um ambiente de execução de IA justo, transparente e combinável, incentivando os contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborarem na mesma plataforma e a obterem ganhos em cadeia com base nas contribuições reais.

A OpenLedger oferece um ciclo completo que vai desde "fornecimento de dados" até "implementação de modelos" e "chamadas de distribuição de lucros", com os seguintes módulos principais:

  • Fábrica de Modelos: sem necessidade de programação, é possível usar o LLM de código aberto para ajustar e treinar modelos personalizados com LoRA e implantá-los;
  • OpenLoRA: suporta a coexistência de mil modelos, carregamento dinâmico sob demanda, reduz significativamente os custos de implantação;
  • PoA (Prova de Atribuição): Medição de contribuição e distribuição de recompensas através do registro de chamadas na cadeia;
  • Datanets: Redes de dados estruturados voltadas para cenários verticais, construídas e validadas por colaboração comunitária;
  • Plataforma de Propostas de Modelo (Model Proposal Platform): mercado de modelos on-chain que é combinável, chamável e pagável.

Através dos módulos acima, a OpenLedger construiu uma "infraestrutura de economia de agentes" orientada por dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.

E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base, construindo um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.

  • Construído com base no OP Stack: baseado na stack tecnológica da Optimism, suporta execução de alta taxa de transferência e baixos custos;
  • Liquidar na rede principal Ethereum: garantir a segurança das transações e a integridade dos ativos;
  • Compatível com EVM: Facilita o desenvolvimento e a rápida implementação e expansão com base em Solidity;
  • EigenDA fornece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.

Comparado com blockchains de IA genéricas como NEAR, que são mais voltadas para a camada inferior e focam na soberania dos dados e na arquitetura "AI Agents on BOS", a OpenLedger se concentra mais em construir uma blockchain dedicada à IA voltada para incentivos relacionados a dados e modelos, buscando tornar o desenvolvimento e a chamada de modelos uma realidade com um ciclo de valor rastreável, combinável e sustentável na blockchain. É a infraestrutura de incentivo a modelos no mundo Web3, combinando hospedagem de modelos no estilo HuggingFace, cobrança de uso no estilo Stripe e interfaces combináveis na blockchain ao estilo Infura, promovendo o caminho para a realização de "modelos como ativos".

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Três, Componentes Centrais e Arquitetura Técnica do OpenLedger

3.1 Fábrica de Modelos, fábrica de modelos sem código

ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma interface totalmente gráfica, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar os modelos com base nos conjuntos de dados que foram autorizados e auditados na OpenLedger. Foi implementado um fluxo de trabalho integrado para autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:

  • Controle de acesso a dados: O usuário submete um pedido de dados, o provedor revisa e aprova, os dados são automaticamente integrados à interface de treinamento do modelo.
  • Seleção e configuração de modelos: Suporta LLMs populares (como LLaMA, Mistral), configurando hiperparâmetros através da GUI.
  • Ajuste leve: Motor LoRA / QLoRA embutido, exibe o progresso do treinamento em tempo real.
  • Avaliação e Implementação de Modelos: Ferramentas de avaliação integradas, suportando exportação para implementação ou chamadas de compartilhamento ecológico.
  • Interface de validação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
  • Geração de rastreabilidade RAG: Respostas com citações de origem, aumentando a confiança e a auditabilidade.

A arquitetura do sistema Model Factory inclui seis grandes módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação de implantação e rastreamento RAG, criando uma plataforma de serviços de modelos integrada, segura e controlável, com interação em tempo real e monetização sustentável.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

A tabela abaixo resume as capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:

  • Série LLaMA: Ecossistema mais amplo, comunidade ativa, desempenho geral forte, é um dos modelos base de código aberto mais populares atualmente.
  • Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequado para cenários flexíveis e com recursos limitados.
  • Qwen: Produzido pela Alibaba, apresenta um desempenho excelente em tarefas em chinês, com forte capacidade geral, ideal para desenvolvedores nacionais.
  • ChatGLM: O efeito de conversa em chinês é notável, adequado para atendimento ao cliente em nichos e cenários de localização.
  • Deepseek: apresenta desempenho superior em geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
  • Gemma: Modelo leve lançado pelo Google, com estrutura clara, fácil de começar a usar e experimentar.
  • Falcon: Era um marco de desempenho, adequado para pesquisa básica ou testes comparativos, mas a atividade da comunidade diminuiu.
  • BLOOM: Suporte multilíngue forte, mas desempenho de inferência fraco, adequado para pesquisa de cobertura de idiomas.
  • GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e validação, não recomendado para uso em implantação real.

Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está defasada, mas sim baseada nas restrições da realidade da implementação on-chain (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM) que resultam em uma configuração "prática em primeiro lugar".

Model Factory, como uma cadeia de ferramentas sem código, possui um mecanismo de prova de contribuição embutido em todos os modelos, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos. Apresenta vantagens de baixo limiar, rentabilidade e combinabilidade, em comparação com as ferramentas tradicionais de desenvolvimento de modelos:

  • Para desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita de modelos;
  • Para a plataforma: formar a circulação de ativos de modelo e o ecossistema de combinação;
  • Para os utilizadores: é possível combinar modelos ou Agentes da mesma forma que se chama uma API.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, a tokenização de ativos em cadeia do modelo de ajuste fino

LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros, que aprende novas tarefas inserindo uma "matriz de baixa rank" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais (como LLaMA, GPT-3) geralmente possuem dezenas de bilhões ou até trilhões de parâmetros. Para utilizá-los em tarefas específicas (como perguntas e respostas legais, consultas médicas), é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original e treinar apenas a nova matriz de parâmetros inserida." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, tornando-se o método de ajuste fino mais adequado para a implantação e chamada combinada de modelos Web3.

OpenLoRA é um framework de inferência leve desenvolvido pela OpenLedger, projetado especificamente para o deployment de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns no deployment de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a implementação de "IA Pagável".

OpenLoRA sistema de arquitetura componentes principais, baseado em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de solicitações e outros aspectos críticos, realizando uma capacidade de implantação e chamada de múltiplos modelos de forma eficiente e a baixo custo:

  • Módulo de Armazenamento de Adaptador LoRA (Armazenamento de Adaptadores LoRA): O adaptador LoRA ajustado é hospedado no OpenLedger, permitindo o carregamento sob demanda, evitando o pré-carregamento de todos os modelos na memória de vídeo, economizando recursos.
  • Hospedagem de modelos e融 dinâmica
OP-4.46%
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 6
  • Repostar
  • Compartilhar
Comentário
0/400
NotAFinancialAdvicevip
· 4h atrás
Já estão a fazer as pessoas de parvas novamente.
Ver originalResponder0
rugpull_survivorvip
· 4h atrás
Outra vez é uma máquina de fazer as pessoas de parvas
Ver originalResponder0
CompoundPersonalityvip
· 4h atrás
Ouça, faça a sua própria investigação (DYOR)
Ver originalResponder0
AirdropATMvip
· 4h atrás
Tsk tsk, isto não é apenas o que sobrou do web2.
Ver originalResponder0
fren.ethvip
· 4h atrás
Integrar Ethereum layer? Acompanhando a diversão ing
Ver originalResponder0
SilentObservervip
· 4h atrás
É apenas um projeto de moda.
Ver originalResponder0
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)