Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Duas de 20 bilhões de dólares: OpenAI e Nvidia travam uma "batalha de raciocínio"
nulo
Escrito por: xiaopi
Em dezembro de 2025, a Nvidia silenciosamente gastou 20 bilhões de dólares para comprar uma empresa de chips de IA chamada Groq.
Em 17 de abril de 2026, a OpenAI anunciou que iria adquirir mais de 20 bilhões de dólares em chips de outra empresa de chips de IA, a Cerebras. No mesmo dia, a Cerebras apresentou oficialmente seus documentos de IPO na NASDAQ, com uma avaliação alvo de 35 bilhões de dólares.
Duas transações, valores quase idênticos. Uma é uma aquisição, a outra é uma compra. Uma vem do maior vendedor de chips de IA do mundo, a outra do maior comprador de IA do mundo.
Não são eventos independentes, são dois movimentos simétricos na mesma guerra. O nome do campo de batalha é: raciocínio de IA.
A maioria das pessoas não percebeu essa guerra. Porque ela não tem explosões, apenas anúncios financeiros e discussões técnicas que circulam entre engenheiros do Vale do Silício. Mas seu impacto pode ser mais profundo do que qualquer lançamento de IA nos últimos dois anos — porque ela está redistribuindo o controle de um mercado que provavelmente se tornará o maior mercado de tecnologia da história.
O que é raciocínio, por que a palavra-chave de 2026 não é mais “treinamento”
Antes de falar sobre os 20 bilhões de dólares, é preciso entender um contexto: o campo de batalha dos chips de IA está passando por uma mudança de foco.
Treinamento e raciocínio são as duas fases do consumo de poder computacional de IA. Treinamento é criar modelos — alimentar uma quantidade massiva de dados em uma rede neural, para que ela aprenda uma determinada habilidade. Esse processo geralmente ocorre uma única vez ou é atualizado periodicamente. Raciocínio é usar o modelo — cada vez que um usuário faz uma pergunta, o ChatGPT fornece uma resposta, que é uma solicitação de raciocínio.
Em 2023, a maior parte do gasto global em poder de IA era no treinamento, com o raciocínio sendo um coadjuvante.
Mas essa proporção está mudando rapidamente.
De acordo com dados de pesquisa de mercado da Deloitte e CES 2026, em 2025, o raciocínio já representava 50% de todo o gasto com poder de IA; em 2026, essa proporção saltará para dois terços. O CEO da Lenovo, Yang Yuanqing, foi mais direto na CES: a estrutura de gastos em IA vai se inverter de “80% treinamento + 20% raciocínio” para “20% treinamento + 80% raciocínio”.
A lógica não é complexa. Treinamento é um custo único, raciocínio é um custo contínuo. O GPT-4 foi treinado uma vez, mas responde a bilhões de perguntas por dia — cada diálogo é uma solicitação de raciocínio. Após a implantação em larga escala, o consumo acumulado de raciocínio supera em muito o treinamento.
O que isso significa? Significa que o pedaço mais lucrativo do mercado de IA está mudando de “chips de treinamento” para “chips de raciocínio”. E esses dois tipos de chips exigem arquiteturas completamente diferentes.
O problema da Nvidia: chips projetados para treinamento não são naturalmente bons para raciocínio
Os H100 e H200 da Nvidia são monstros feitos para treinamento. Sua vantagem central é uma taxa de processamento extremamente alta — treinamento requer muitas multiplicações de matrizes massivas, e GPUs são boas em “computação paralela de múltiplos núcleos”.
Mas o gargalo do raciocínio não é o cálculo, é a largura de banda da memória.
Quando um usuário faz uma pergunta, o chip precisa mover os pesos do modelo inteiro da memória para a unidade de cálculo, antes de gerar uma resposta. Esse processo de “movimentação” é a verdadeira fonte de latência no raciocínio. As GPUs da Nvidia usam memória de alta largura de banda (HBM), e essa movimentação inevitavelmente introduz atrasos — para o ChatGPT, que precisa processar dezenas de milhões de solicitações por segundo, essa latência, multiplicada pelo volume, se torna um gargalo de desempenho real.
Engenheiros internos da OpenAI perceberam esse problema ao otimizar o Codex (ferramenta de geração de código), e descobriram que, independentemente de ajustes, a velocidade de resposta era limitada pela arquitetura das GPUs da Nvidia.
Em outras palavras, a desvantagem da Nvidia no raciocínio não é uma questão de esforço, mas de arquitetura.
A chip WSE-3 da Cerebras seguiu um caminho completamente diferente. Essa placa é tão grande que requer encapsulamento em wafer — uma área de 46.255 mm², maior que a palma da mão — integrando 900 mil núcleos de IA e 44 GB de SRAM ultrarrápida em um único chip de silício. A memória fica ao lado do núcleo de cálculo, reduzindo a distância de “movimentação” de centímetros para micrômetros. Como resultado, a velocidade de raciocínio é de 15 a 20 vezes mais rápida que o H100 da Nvidia.
É importante acrescentar: a Nvidia não está de braços cruzados. Sua arquitetura Blackwell (B200), lançada recentemente, oferece um desempenho de raciocínio quatro vezes maior que o H100, e já está em implantação em larga escala. Mas a Blackwell está mirando um alvo móvel — a Cerebras também está evoluindo, e o mercado de chips está vendo surgir concorrentes além da Cerebras.
Os 20 bilhões da Nvidia: uma carta de admissão por trás da maior aquisição da história
Em 24 de dezembro de 2025, a Nvidia anunciou sua maior aquisição até então.
O alvo era a Groq.
A Groq é uma concorrente da Cerebras, especializada em chips de arquitetura SRAM otimizados para raciocínio — ela chama-se LPU (Unidade de Processamento de Linguagem), que na avaliação pública era o chip mais rápido do mundo para raciocínio. A Nvidia gastou 20 bilhões de dólares para adquirir toda a tecnologia central e a equipe fundadora da Groq, incluindo o fundador Jonathan Ross e vários engenheiros de chips da equipe TPU do Google.
Essa foi a maior aquisição desde a compra da Mellanox por 7 bilhões de dólares em 2019, triplicando o valor.
Para muitos analistas, o que essa quantia transmite é mais importante do que o valor em si: a Nvidia acredita que há uma lacuna estrutural no raciocínio de IA, e que ela vale 20 bilhões de dólares para fechá-la.
Se a Nvidia realmente acreditasse que seus GPUs são invencíveis no raciocínio, ela não precisaria adquirir a Groq. Essa compra é, na essência, uma compra de tecnologia — uma admissão de que a arquitetura SRAM embutida tem vantagens reais no raciocínio, e que a Nvidia, com sua linha de produtos atual, não consegue cobri-la naturalmente. Então, ela paga o preço mais alto para comprar uma tecnologia que não consegue desenvolver sozinha.
Claro, a narrativa oficial após a aquisição é outra: “Integração profunda com a Groq, oferecendo uma solução de raciocínio mais completa.” Em linguagem técnica, é: percebemos que nossos produtos atuais não são suficientes, então compramos o que há de melhor.
Os 20 bilhões da OpenAI: comprar chips é só a superfície, o investimento em participação é o real
Voltando à OpenAI.
Em janeiro de 2026, a OpenAI assinou um acordo de compra de capacidade de computação de 10 bilhões de dólares com a Cerebras — a cobertura da mídia focou na “diversificação de fornecedores de chips”, com tom neutro.
Mas os detalhes revelados em 17 de abril mudam completamente a natureza do negócio:
Primeiro, o valor da compra dobrou, de 10 bilhões para 20 bilhões de dólares.
Segundo, a OpenAI receberá opções de compra de ações da Cerebras, que, com o aumento do volume de compras, podem chegar a até 10% do total de ações da empresa.
Terceiro, a OpenAI também fornecerá 1 bilhão de dólares em financiamento para construção de data centers para a Cerebras — ou seja, está ajudando a construir fábricas para ela.
Esses três detalhes pintam um quadro totalmente diferente: a OpenAI não está apenas comprando chips, ela está incubando um fornecedor.
Esse padrão tem precedentes claros na história da tecnologia. Em 2006, a Apple começou a trabalhar com a Samsung na customização de chips da série A, inicialmente com contratos de compra em grande escala, mas, à medida que a Apple aprofundou sua participação, passou a desenvolver seus próprios chips da série M, assumindo o controle da cadeia de suprimentos. O que a OpenAI faz é semelhante — mas com uma fronteira importante: a Apple sempre controlou o design dos chips desde o início, enquanto a OpenAI ainda é uma compradora, e a Cerebras, após abrir seu IPO, seguirá uma trajetória de crescimento independente, atendendo a mais clientes. O fim dessa história não é necessariamente a OpenAI controlando a Cerebras completamente, mas talvez formando uma ecologia de dependência mútua.
Por um lado, usando 20 bilhões de dólares e participações acionárias para garantir o fornecimento contínuo de poder de raciocínio fora da Nvidia; por outro, a OpenAI está colaborando com a Broadcom no desenvolvimento de seus próprios chips ASIC, com produção prevista para o final de 2026. Caminhando com esses dois passos, busca-se autonomia em capacidade de computação.
Hoje, a IPO da Cerebras: o que você está comprando
Em 17 de abril, a Cerebras apresentou oficialmente seu pedido de IPO na NASDAQ, com avaliação de 35 bilhões de dólares, planejando captar 3 bilhões de dólares.
Essa avaliação é mais de quatro vezes maior do que os 8,1 bilhões de dólares de setembro de 2025. Em fevereiro, a empresa havia concluído uma nova rodada de financiamento, com avaliação de 23 bilhões de dólares, e o valor de 35 bilhões na IPO já inclui um prêmio de 52% sobre esse valor.
Quem conhece a história da Cerebras sabe que essa é sua segunda tentativa de listar na bolsa. A primeira foi em 2024, mas foi cancelada porque o cliente principal, G42 (Fundo de Investimento em Tecnologia Soberana dos Emirados Árabes), respondia por 83% a 97% da receita daquele ano, e a CFIUS (Comitê de Investimento Estrangeiro nos EUA) interveio por motivos de segurança nacional.
Desta vez, a G42 saiu da lista de acionistas, sendo substituída pela OpenAI.
Em outras palavras, o problema de concentração de clientes da Cerebras ainda não foi resolvido — o nome do maior cliente mudou, mas a dependência permanece. Os investidores precisam avaliar: esse cliente é melhor ou pior? Do ponto de vista de crédito, a OpenAI é claramente melhor que a G42; do ponto de vista estratégico, ela também é uma concorrente potencial, pois seu próprio chip ASIC, se for bem-sucedido, representa uma ameaça real à Cerebras.
Para ser justo, a Cerebras também está buscando diversificar sua base de clientes, e o prospecto de IPO deve listar mais fontes de receita. Mas, até que a produção de chips próprios da OpenAI esteja em operação, essa questão ainda não tem resposta definitiva.
Ao comprar ações da Cerebras, você está apostando simultaneamente em duas coisas: que a OpenAI continuará escolhendo a Cerebras, e que seus próprios chips ASIC não chegarão antes do esperado. Ambas são incertezas.
Claro, há motivos para acreditar na tese de alta: se o mercado de raciocínio crescer conforme previsto, mesmo uma pequena fatia de participação da Cerebras nesse mercado pode gerar números absolutos bastante expressivos. O problema não é se a Cerebras terá chance, mas se a avaliação de 35 bilhões já reflete o cenário mais otimista.
Duas transações de 20 bilhões, de forma simétrica, ocorreram entre o final de 2025 e abril de 2026.
Uma, de um dos maiores vendedores de chips de IA do mundo, comprando tecnologia de um concorrente do mercado de raciocínio.
Outra, de um dos maiores compradores de IA do mundo, incubando uma empresa que desafia a Nvidia nesse mercado.
Os 20 bilhões da Nvidia representam uma defesa — usando o preço mais alto para fechar uma lacuna tecnológica que ela mesma não consegue preencher.
Os 20 bilhões da OpenAI representam um ataque — investindo em construir uma via rápida de raciocínio que não dependa da Nvidia, enquanto adquire uma participação na receita dessa estrada.
Essa guerra não tem tiros, mas o fluxo de capital nunca mente. Essas duas transações mostram claramente: o controle da infraestrutura de raciocínio de IA está sendo disputado. E esse mercado, em 2026, responderá por dois terços de todo o poder computacional do setor.
O IPO da Cerebras é o sinal de que essa guerra está ganhando força.