Nvidia entra no negócio de "criação de camarões" e aposta totalmente na era de IA de raciocínio de biliões

robot
Geração do resumo em andamento

Notícias do Securities Times por Ruan Runsheng

O gigante mundial de computação NVIDIA está a transformar-se de um fabricante de chips num centro de IA, apostando nas oportunidades do mercado de inferência de inteligência artificial. No dia 17 de março, na abertura da conferência GTC 2026 (GPU Technology Conference), o CEO da NVIDIA, Huang Renxun, aumentou significativamente as previsões de receita para a nova geração de chips de IA, mirando um objetivo de 1 trilhão de dólares, e lançou oficialmente a próxima plataforma de hardware, além de produtos como uma pilha de software para “criação de camarões”.

Profissionais do setor comentam que um sinal forte emitido pelo GTC este ano é que a era da inferência está a acelerar. Além disso, a nova arquitetura de computação da NVIDIA liderará mudanças nos setores de dissipação de calor, materiais de embalagem e outros.

Apostando na inferência de IA

Na conferência GTC, a NVIDIA destacou que, na nova fase da IA inteligente, a inferência se tornará o núcleo da competição em infraestrutura de IA. A empresa lançou oficialmente a próxima plataforma de computação Vera Rubin e o chip Groq3 LPU (Unidade de Processamento de Linguagem).

“Quando menciono Hopper, mostro um chip; mas ao falar de Vera Rubin, as pessoas pensam no sistema completo”, prevê Huang Renxun, fundador e CEO da NVIDIA. Nos últimos anos, a demanda de computação cresceu 1 milhão de vezes, e estima-se que, entre 2025 e 2027, esse crescimento trará pelo menos 1 trilhão de dólares em receitas para a empresa.

A plataforma Vera Rubin apresentada nesta ocasião inclui 7 chips, 5 sistemas de rack e um supercomputador para IA baseada em agentes, incluindo a nova CPU Vera e a arquitetura de armazenamento Blue Field-4S TX. Comparada com a geração anterior Blackwell, a nova plataforma requer apenas um quarto do número de GPUs para treinar modelos de especialistas híbridos de grande escala, com um aumento de até 10 vezes na taxa de inferência por watt.

Na conferência, Huang Renxun destacou o chip de inferência Groq 3 LPU, revelando detalhes do “surpresa” reservada na apresentação de resultados de fevereiro. Este chip foi adquirido pela NVIDIA em dezembro do ano passado, por cerca de 20 bilhões de dólares, com tecnologia central da Groq, e é posicionado como um “co-processador de inferência” para a GPU Rubin, assumindo um papel importante na estratégia de inferência da NVIDIA.

Huang afirmou que, na era da IA inteligente, a demanda por inferência está a se diversificar rapidamente. Para tarefas que exigem alta interatividade e respostas ultra-rápidas, as arquiteturas tradicionais de GPU apresentam redundância de desempenho. Assim, a NVIDIA introduziu a arquitetura LPU, focada na geração de tokens com “baixa latência extrema”, trabalhando em colaboração com GPUs. A Vera Rubin cuida da fase de “pré-preenchimento” que exige cálculos massivos, enquanto a LPU lida com a fase de “decodificação” altamente sensível à latência. Essa arquitetura híbrida pode aumentar até 35 vezes a taxa de inferência e a eficiência energética do sistema.

“Na era da inferência de IA, o que importa não são apenas os picos de parâmetros, mas a capacidade de otimizar de forma heterogênea para cargas reais, usando cada fração de poder de cálculo ao máximo”, afirmou um responsável da YunTianLiFei. Segundo ele, a era da inferência busca máxima relação custo-benefício, com maior necessidade de computação heterogênea, segmentando as cargas de trabalho para diferentes hardwares, elevando a eficiência geral do sistema. A estratégia apresentada pela NVIDIA segue essa linha. Empresas chinesas de chips de IA, como YunTianLiFei, continuam a inovar em arquiteturas de inferência, envolvendo GPNPU, separação de PD, armazenamento 3D e outros aspectos, alinhando-se à mesma direção industrial.

Inovando na IA inteligente

OpenClaw, uma plataforma de agentes de IA de código aberto, tem impulsionado a tendência de “criação de camarões” globalmente. Na GTC, Huang Renxun elogiou o OpenClaw, dizendo que “abriu uma nova fronteira na IA para todos e tornou-se o projeto de código aberto de crescimento mais rápido da história”, marcando o início de uma era de criação de agentes inteligentes pessoais.

A NVIDIA planeja participar na “criação de camarões”, lançando a pilha de software NVIDIA Nemo Claw, compatível com a plataforma de agentes OpenClaw, permitindo instalação com um único comando, além de melhorar a gestão de segurança, confiabilidade, escalabilidade e usabilidade de agentes de IA.

Na conferência, a NVIDIA também reforçou parcerias com empresas líderes globais de software industrial, como Cadence, Siemens e Synopsys, além de integrar plataformas como CUDA-X™, Omniverse™ e ferramentas aceleradas por GPU em empresas como Honda, Jaguar Land Rover, Samsung, SK Hynix e TSMC, para acelerar o design industrial, desenvolvimento de engenharia e processos de fabricação.

Huang afirmou: “Uma nova revolução industrial já começou, com IA física e agentes de IA autônomos a transformar fundamentalmente a forma como projetamos, engenheiramos e fabricamos globalmente. Através de parcerias com gigantes de software, provedores de serviços em nuvem e OEMs, a NVIDIA oferece uma plataforma de computação acelerada de ponta a ponta, capacitando setores a transformar essa visão em realidade com uma escala e velocidade sem precedentes.”

No primeiro dia do evento, as ações da NVIDIA subiram 1,65%, fechando a 183,22 dólares por ação; porém, no mesmo dia, o índice de cadeias industriais relacionadas à NVIDIA na A-share recuou, liderado pelo conceito de módulos ópticos, com a Tenda Communication caindo cerca de 10%, a Zhongji Xuchuang caindo 3,33%, e a líder em PCBs de IA, Shenghong Technology, caindo cerca de 3%.

Liderando a nova infraestrutura de computação

A NVIDIA continua a liderar a transformação da cadeia de IA. Com a crescente complexidade da arquitetura AI Fab da NVIDIA e o aumento do consumo de energia, as técnicas tradicionais de refrigeração a ar atingiram limites físicos. A nova estrutura Rubin utiliza um design de refrigeração líquida 100%, tornando o líquido de refrigeração um componente essencial da nova infraestrutura de computação.

Na conferência, a subsidiária LiminDa, controlada pela Lingyi Zhi Zao, foi a única fornecedora na China continental a participar do ecossistema Vera Rubin Manifold (Distribuidor de Água). Como componente central do sistema de circulação líquida, o distribuidor e os conectores rápidos determinam a eficiência e estabilidade do sistema de dissipação de calor.

Além disso, a arquitetura Rubin da NVIDIA pode impulsionar uma revolução nos materiais de embalagem.

“Devido às exigências extremas de dissipação de calor e transmissão de sinais na arquitetura Rubin, o desenvolvimento comercial de substratos de vidro foi significativamente acelerado”, afirmou Lu Bing, analista da Shenmeng Industry. Com a alta densidade de potência, os substratos orgânicos tradicionais (ABF) enfrentam sérios obstáculos físicos.

Fabricantes nacionais e internacionais estão em um ponto crucial de transição de “validação tecnológica” para “produção em pequena escala”. Segundo previsões da Yole Group, 2026 será o ano em que os substratos de vidro entrarão na fase de produção comercial em pequena escala, e na área de empacotamento de HBM (memória de alta largura de banda) e chips lógicos, a demanda por materiais de vidro deve crescer a uma taxa composta anual de 33%.

Lu Bing destacou que a China possui a cadeia de produção de painéis mais completa do mundo e um mercado consumidor vasto. Aproveitando essa vantagem de escala, empresas nacionais já visam obter avanços em materiais e equipamentos, como dispositivos de microperfuração a laser, para ocupar uma posição central na cadeia de suprimentos de chips de IA.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar