Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Promoções
Centro de atividade
Participe de atividades e ganhe recompensas
Indicação
20 USDT
Convide amigos para recompensas de ind.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Anúncio
Atualizações na plataforma em tempo real
Blog da Gate
Artigos do setor de criptomoedas
AI
Gate AI
Seu parceiro de IA conversacional para todas as horas
Gate AI Bot
Use o Gate AI diretamente no seu aplicativo social
GateClaw
Gate Blue Lobster, pronto para usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
10K+ habilidades
Do escritório à negociação: um hub completo de habilidades para turbinar o uso da IA
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas extras
DeepSeek V4 por trás do estouro: o Vale do Silício está "construindo muros", a China está "construindo estradas"
nulo
Escrito | Alterar
Na manhã de 24 de abril, o DeepSeek V4, que chegou atrasado, finalmente revelou sua verdadeira face.
Naquele dia, o DeepSeek-V4-Pro conquistou o topo da lista de modelos de código aberto do Hugging Face, e duas “inovações nucleares” foram amplamente discutidas:
Primeiro, um contexto ultra longo de milhões de tokens, mas o cache KV tinha apenas 10% do V3.2, sendo elogiado por engenheiros da Amazon como uma solução para o problema de escassez de HBM;
Segundo, a adaptação para chips nacionais, colaborando estreitamente com a Huawei durante o desenvolvimento, e adaptando rapidamente chips nacionais como Ascend e Cambricon.
Por coincidência, o segundo colocado na lista de modelos de código aberto do Hugging Face era justamente o Kimi K2.6, lançado e open source na madrugada de 20 de abril.
Se estiver do lado do Pacífico, a “colisão” de dois modelos de trilhões de parâmetros inevitavelmente leva a disputas por avaliação e domínio comercial, mas no país uma cena completamente diferente se desenrola: sem exposições de segredos, sem guerras de relações públicas sob correnteza, e até uma “troca de defesa” na base tecnológica.
Por trás do “extraordinário”, há uma divergência na rota tecnológica de IA entre China e EUA: o Vale do Silício está fervorosamente construindo “muros altos”, tentando proteger interesses adquiridos com código fechado; enquanto fabricantes de grandes modelos nacionais optam por “desmontar os muros”, evoluindo em colaboração na terra do código aberto.
01 Vale do Silício mergulhado no “jogo de poder”
Diferente da rota de código aberto florescente de grandes modelos na China, os principais nomes da IA do Vale do Silício — OpenAI, Anthropic, Google Gemini — são todos defensores do código fechado.
Inovações tecnológicas de ponta estão presas em seus próprios data centers, e diante do peso do custo computacional e das expectativas do mercado de capitais, o “espírito do Vale” conhecido por abertura e colaboração está desaparecendo lentamente, levando os jogadores a um jogo de soma zero de “poder”.
Nos últimos dois anos, as “guerras ocultas” evoluíram para disputas públicas, sendo a mais comum a “roubar o destaque”: ao lançar um novo produto, as empresas rapidamente lançam atualizações pesadas para suprimir a atenção do concorrente, uma prática comum no Vale.
Em maio de 2024, OpenAI e Google lançaram simultaneamente novos produtos de IA, uma dizendo que GPT-4o lidera globalmente, outra afirmando que a família Gemini cobre todo o ecossistema e caminho. Os CEOs de ambas as empresas não resistiram e se provocaram publicamente nas redes sociais.
Não apenas a “disputa” com o Google, mas também a competição entre OpenAI e Anthropic entrou em fase de intenso confronto: em 16 de abril, Anthropic lançou seu novo modelo Claude Opus 4.7, e pouco mais de duas horas depois, OpenAI anunciou uma grande atualização do Codex, com o slogan “Codex para (quase) tudo)”. É claro para qualquer observador que a colisão de cronogramas não foi mera coincidência, mas uma “emboscada” cuidadosamente planejada pelo OpenAI contra a Anthropic.
Além do “debate verbal”, as “revelações” mútuas também se tornaram rotina no Vale do Silício.
Em 7 de abril, a Anthropic anunciou com pompa uma receita anual de 30 bilhões de dólares, superando os 25 bilhões de OpenAI.
Uma semana depois, o diretor de receita da OpenAI, em uma carta interna a todos os funcionários, afirmou abertamente que a receita anual de 30 bilhões de dólares da Anthropic era seriamente inflada, pois usava o método de “totalização”, incluindo toda a comissão recebida de provedores de nuvem como Amazon e Google, inflando sua receita total e superestimando em cerca de 8 bilhões de dólares.
Essa tática de “desmascarar o adversário” dentro da própria carta não é comum na indústria de tecnologia, e seu objetivo era basicamente mostrar aos investidores que a narrativa de crescimento da Anthropic era inflada.
E, uma vez que a hostilidade surge, ela pode afetar todas as decisões de forma onipresente.
Após a Anthropic romper contratos por recusar-se a remover cláusulas de segurança específicas com o Pentágono, a OpenAI anunciou horas depois uma parceria com o Departamento de Defesa dos EUA.
No Super Bowl de 2026, a Anthropic investiu pesado em um anúncio dizendo “Publicidade entrando na área de IA, mas não na Claude”, uma provocação direta à OpenAI, que começava a testar sua funcionalidade de anúncios…
Por que os “irmãos de porta” de outrora chegaram a um ponto de inimizade tão profundo?
A raiz está na lógica inerente ao modelo de negócios de código fechado: sua sobrevivência depende da construção de uma barreira de proteção, e essa barreira só é possível bloqueando a difusão tecnológica e monopolizando as capacidades mais avançadas. Além disso, rotas tecnológicas incompatíveis e narrativas de produto opostas naturalmente criam um equilíbrio de Nash: quem “ceder” primeiro na trégua terá sua narrativa de marca desmoronada, mergulhando cada vez mais no lamaçal do conflito interno.
02 “Evolução colaborativa” no campo de código aberto
Voltando ao cenário doméstico, o roteiro é completamente diferente.
Há pouco mais de um ano, o surgimento do DeepSeek-R1 freou a corrida desenfreada de startups de grandes modelos, colocando em xeque o “seis pequenos tigres” do ecossistema. Ao contrário do maior do Vale, o DeepSeek não atua como um “tubarão” que devora todos os peixes do tanque, mas como uma catfish que ativa todo o ecossistema de grandes modelos na China, levando todos a abraçar o código aberto.
Um exemplo direto é a trajetória de crescimento do “Lado Sombrio da Lua”, que começou em 2023. São equipes iniciais com poucos membros, mas alta densidade de talentos, e todos seguidores firmes da Lei de Escalabilidade.
Em julho de 2025, o “Lado Sombrio da Lua” lançou o primeiro modelo de código aberto de um trilhão de parâmetros, Kimi K2, e no relatório técnico admitiu usar a arquitetura MLA do DeepSeek. Para grandes modelos, o maior pesadelo de lidar com textos ultra longos é a parede de memória, e a inovação da arquitetura MLA está na compressão do cache KV, atingindo impressionantes 93% de taxa de compressão.
Com o “padrão da indústria” estabelecido pelo DeepSeek, equipes de grandes modelos como a do “Lado Sombrio da Lua” puderam evitar reinventar a roda, reduzindo rapidamente os custos de inferência.
A história, porém, não termina aí.
Ao revisar a documentação técnica do DeepSeek V4, há uma descrição detalhada da arquitetura do modelo, incluindo uma atualização importante: a substituição do otimizador de maior parte dos módulos de AdamW por Muon, que proporciona convergência mais rápida e maior estabilidade no treinamento.
Na documentação técnica do Kimi K2.6, também há menção ao otimizador Muon, que, sob a mesma quantidade de treinamento, oferece o dobro de eficiência.
Ambos os modelos mencionam o otimizador Muon, que foi inicialmente proposto por Keller Jordan em um blog no final de 2024. O time do “Lado Sombrio da Lua”, também afetado pelos problemas do AdamW, realizou melhorias críticas na engenharia do Muon no início de 2025, adicionando Decaimento de Peso, Controle RMS e outras capacidades, batizando-o de MuonClip.
O “Lado Sombrio da Lua” foi o primeiro a validar a estabilidade do otimizador Muon no Kimi K2, alcançando uma fase de pré-treinamento sem “picos de perda”. O DeepSeek, ao treinar seu grande modelo V4, também utilizou o otimizador Muon, já comprovado.
Cabe esclarecer que a “evolução colaborativa” de grandes modelos de código aberto não está levando à homogeneização, mas a um caminho de “harmonia na diversidade”.
Por exemplo, o DeepSeek-V4 foca na força central do modelo base, reforçando o teto de desempenho dos grandes modelos de código aberto globalmente, fornecendo uma base de desempenho comparável aos modelos fechados de ponta; enquanto o Kimi K2.6 se dedica à implementação de agentes, resolvendo os principais desafios de execução autônoma de longo prazo, abrindo caminho para a entrada de grandes modelos em cenários de produção reais.
Ao longo de todo esse processo, não houve negociações comerciais prolongadas nem disputas de patentes acirradas. No ecossistema de código aberto, a inovação tecnológica flui livremente como água, e quem fizer bem feito será utilizado por todos.
Extraindo nutrientes do ecossistema de código aberto, complementando rotas tecnológicas. Fabricantes chineses de grandes modelos demonstraram ao mundo uma outra possibilidade além do Vale do Silício.
03 EUA “constroem muros”, China “consertam estradas”
Enquanto admiram a colaboração no código aberto, é preciso encarar uma dura realidade comercial.
Atualmente, a receita anual do OpenAI e da Anthropic ultrapassa 10 bilhões de dólares cada, enquanto os principais fabricantes domésticos de grandes modelos estão apenas começando a ultrapassar a marca de 100 milhões de dólares anuais.
O valor de mercado do OpenAI na segunda bolsa é de aproximadamente 8,8 trilhões de dólares, a Anthropic atingiu cerca de 10 trilhões, enquanto as novas rodadas de financiamento do Kimi e DeepSeek avaliam suas empresas em 18 bilhões e 20 bilhões de dólares, respectivamente.
Alguns afirmam que o valor de mercado dos fabricantes chineses de grandes modelos está subestimado, enquanto outros dizem: “Transformar a reputação tecnológica em dinheiro de verdade é o grande teste de vida ou morte para as empresas chinesas.” Assim, a discussão sobre “custo-benefício” do código aberto está em alta.
Para entender o desfecho, podemos observar as fases de competição de grandes modelos:
Primeira fase: “pular parâmetros e benchmarks”. Até o final de abril de 2026, essa fase praticamente termina, pois as pontuações nas listas já não diferenciam substancialmente as empresas.
Segunda fase: “focar na eficiência de treinamento, custo de inferência e inovação de arquitetura”. Essa é a fase atual, resultado inevitável da pressão de custos computacionais.
Terceira fase: “focar em sistemas de agentes, ecossistemas e desenvolvedores”. Quando os tokens de IA deixam de ser gratuitos e passam a ser “combustível” para tarefas, a prosperidade do ecossistema determinará a sobrevivência.
Qual é a posição dos grandes modelos de código aberto na China? Encontramos dois conjuntos de dados comparativos:
Um é o custo de treinamento.
Em agosto de 2025, o GPT-5 foi treinado com mais de 500 milhões de dólares; o Kimi K2 Thinking, com cerca de 4,6 milhões de dólares; o DeepSeek não divulgou o custo de treinamento da série V4, mas o V3 custou apenas 5,58 milhões de dólares… fabricantes chineses usaram menos de uma fração do recurso do OpenAI para treinar modelos de nível semelhante.
Outro é o volume de chamadas.
Após 2026, plataformas de agregação de múltiplos modelos, como o OpenRouter, mostram que, impulsionados pelo produto Agent OpenClaw, o consumo global de tokens cresceu exponencialmente, e a “equipe de sonho” de código aberto da China, com sua reputação de “fácil de usar e barato”, já supera os EUA em chamadas por várias semanas consecutivas.
A explicação é simples.
O ecossistema de código aberto na China já percorreu o ciclo de “retroalimentação positiva”: uma empresa abre sua tecnologia de base, outra adota e faz otimizações, e essa experiência é devolvida ao ecossistema. Se a evolução dos modelos fechados é uma linha de crescimento linear baseada em enorme capacidade computacional, a rota de código aberto promete uma difusão exponencial por colisões de inovação tecnológica.
Segundo relatório do Morgan Stanley, de 2025 a 2030, o consumo de tokens de inferência de IA na China terá uma taxa de crescimento anual composta de aproximadamente 330%, passando de 10 trilhões de tokens em 2025 para 3,9 quatrilhões de tokens em 2030, um crescimento de 370 vezes.
Ou seja, 2026 ainda está na fase inicial de explosão de IA, e nos próximos cinco anos há potencial de crescimento de várias centenas de vezes, longe de uma conclusão definitiva.
A confiança nas oportunidades de longo prazo é justamente o que leva os gigantes do Vale a construir muros, enquanto os fabricantes chineses de grandes modelos escolhem fortalecer a estrada por meio de colaboração contínua em direção à AGI.
04 Encerramento
Quem sairá vencedor nessa onda de IA? A resposta não depende apenas do modelo, mas também do controle autônomo de capacidade computacional. Se compararmos o modelo a uma “bomba atômica”, então a capacidade de computação doméstica, livre de bloqueios externos, é como um “foguete” levando a bomba ao céu.
Felizmente, a fusão de modelos nacionais com capacidade computacional nacional está cada vez mais próxima: a documentação técnica do DeepSeek V4 lista a Ascend NPU ao lado da GPU da Nvidia na lista de hardware validado; a mais recente pesquisa do “Lado Sombrio da Lua” mostra que a inferência de grandes modelos foi executada em chips diferentes, abrindo caminho para a participação em larga escala de chips domésticos na inferência de modelos.
No início de 2025, o DeepSeek R1 deu uma oportunidade para os grandes modelos nacionais entrarem na disputa; até 2026, o ecossistema de grandes modelos de código aberto na China continua a criar e consolidar hardware que define as regras do jogo.