Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
Jensen Huang inaugura nova era de supercomputação, Vera Rubin torna-se catalisadora de mudanças no campo da IA
Jensen Huang voltou a subir ao palco da CES, e o líder da NVIDIA apresentou uma grande revelação tecnológica que mostrou ao setor o futuro do cálculo de IA. Este ano, ao contrário dos tradicionais cartões gráficos de consumo, o destaque foi uma plataforma de supercomputação empresarial de 2,5 toneladas, integrada com seis chips personalizados — Vera Rubin. O nome vem da astrónoma Vera Rubin, simbolizando a contínua exploração dos novos limites do universo da IA pela NVIDIA.
Vera Rubin redefine a lógica de design de chips, inovação sistémica por trás do aumento de desempenho
Tradicionalmente, a NVIDIA seguia uma estratégia conservadora de inovar apenas 1-2 chips por geração. Mas Vera Rubin quebrou esse padrão, projetando e produzindo simultaneamente seis novos chips — uma iniciativa sem precedentes na indústria. Jensen Huang chamou isso de “Design Colaborativo Extremo”, uma inovação sincronizada em todos os níveis da arquitetura de chips e da plataforma.
Estes seis chips têm funções específicas: o Vera CPU usa a arquitetura personalizada Olympus de 88 núcleos da NVIDIA, com 1,5TB de memória de sistema (triplicando em relação ao Grace anterior), suficiente para aplicações de IA mais complexas; o GPU Rubin é o principal motor de desempenho, com capacidade de inferência de 50PFLOPS, cinco vezes maior que a geração Blackwell, enquanto o número de transistores aumentou apenas 1,6 vezes, demonstrando uma eficiência de design revolucionária.
Além desses “cérebros”, Vera Rubin integra também uma placa de rede ConnectX-9, uma unidade de processamento de dados BlueField-4, chips de troca NVLink-6 e o chip de fibra óptica Spectrum-6. Cada componente foi cuidadosamente desenvolvido para que o sistema funcione como um organismo coordenado.
Na prática, o sistema NVL72, baseado na arquitetura Vera Rubin, atinge 3,6 EFLOPS em tarefas de inferência, cinco vezes mais rápido que a geração Blackwell; no treino, chega a 2,5 EFLOPS, um aumento de 3,5 vezes. Ainda mais impressionante, esse avanço de desempenho acompanha um aumento de apenas 1,7 vezes no número de transistores, indicando avanços significativos na tecnologia de semicondutores e na otimização de arquitetura.
No nível de design físico, as melhorias também são notáveis. Antes, um nó de supercomputador exigia 43 cabos, duas horas de montagem e era propenso a erros. Agora, o nó Vera Rubin dispensa cabos, usando apenas seis tubos de resfriamento líquido, e a montagem leva cinco minutos. A rede principal NVLink, composta por cerca de 3200 km de cabos de cobre e 5000 cabos de cobre, transmite dados a 400Gbps, uma complexidade que Jensen Huang brincou dizendo que “precisaria de um CEO muito forte para mover tudo isso”.
Revolução na memória e aceleração de rede, enfrentando os principais gargalos da IA
Um grande desafio na IA é a insuficiência de memória de contexto. Durante diálogos, os modelos geram “KV Cache” — a memória de trabalho da IA. Com o aumento de rodadas de conversa e do tamanho do modelo, a HBM (memória de alta largura de banda) rapidamente se torna insuficiente.
A solução da Vera Rubin é usar unidades BlueField-4 para gerenciar independentemente o KV Cache. Cada nó conta com quatro BlueField-4, cada um com 150TB de memória de contexto, permitindo que cada GPU adicione 16TB de memória — um crescimento revolucionário, já que uma GPU típica tinha cerca de 1TB de memória integrada. E o melhor: essa expansão mantém a velocidade de acesso, com banda de 200Gbps.
Porém, só memória não basta. Quando a memória de trabalho precisa coordenar dezenas de servidores e milhares de GPUs, a infraestrutura de rede se torna uma nova limitação. Surge então o Spectrum-X, a primeira plataforma de Ethernet end-to-end “especializada em IA generativa”. Usando tecnologia de TSMC com processos COOP, integra fotônica de silício e suporta taxas de transmissão de 512 canais × 200Gbps.
Economicamente, para um data center de 50 milhões de dólares, o Spectrum-X aumenta a capacidade de throughput em 25%, economizando cerca de 5 milhões de dólares — Huang descreveu essa rede como “quase de graça”.
Além disso, Vera Rubin também aposta na segurança computacional. Todos os dados — em transmissão, armazenamento e processamento — são criptografados, incluindo canais PCIe, NVLink, comunicação CPU-GPU e outros barramentos. Empresas podem implantar seus modelos externos com segurança, sem risco de vazamento de dados.
Onda de código aberto e democratização da IA, novos modelos que transformam o setor
Um destaque da apresentação foi a ênfase de Huang na comunidade de IA de código aberto. Ele destacou o impacto do lançamento do DeepSeek V1 no ano passado, chamando-o de “primeiro modelo de inferência open source” que impulsionou uma onda de inovação global. Nos slides, modelos chineses como Kimi e DeepSeek V3.2 aparecem como os primeiros e segundos em rankings mundiais de código aberto.
Huang admitiu que, embora os modelos open source atuais estejam cerca de seis meses atrás das soluções líderes do mercado, novas inovações surgem a cada seis meses. Essa velocidade de evolução mantém startups, gigantes de tecnologia e centros de pesquisa em alerta, e a NVIDIA sabe que não pode ficar de fora dessa corrida.
Por isso, a NVIDIA não atua apenas como fabricante de chips. Eles construíram um supercomputador de dezenas de bilhões de dólares, o DGX Cloud, desenvolveram modelos de síntese de proteínas como La Proteina e OpenFold 3, e continuam expandindo um ecossistema open source focado em saúde, física de IA, agentes inteligentes, robótica e condução autônoma.
A família Nemotron, com modelos para voz, multimodalidade, geração com reforço de busca e segurança, também é destaque, com resultados excelentes em rankings e aplicações comerciais já em andamento.
Alpamayo, o avatar físico de IA, e a era do raciocínio na condução autônoma
Se os grandes modelos de linguagem resolveram o “mundo digital”, Huang quer conquistar o “mundo físico”. Ele propôs uma arquitetura de “três computadores centrais” para avançar a IA física: computadores de treino (baseados em GPUs tradicionais), computadores de inferência (em veículos autônomos ou robôs na borda), e computadores de simulação (ambientes virtuais de treino como Omniverse e Cosmos).
O produto dessa arquitetura é o Alpamayo — o primeiro sistema de condução autônoma com capacidade de raciocínio do mundo. Diferente dos sistemas tradicionais baseados em regras, o Alpamayo é uma solução de deep learning de ponta a ponta, que resolve o problema do “cauda longa” na condução autônoma.
Quando enfrentam condições de trânsito inéditas, esses veículos não apenas executam comandos pré-programados, mas raciocinam e tomam decisões como humanos. E o mais impressionante: o sistema explica suas ações, dizendo “o que vai fazer a seguir e por quê”. Em demonstrações ao vivo, o carro mostrou uma capacidade surpreendente de decompor cenários complexos em conhecimentos básicos para lidar com eles.
O Mercedes CLA foi o primeiro a incorporar essa tecnologia. Huang anunciou que esse modelo será lançado nos EUA no primeiro trimestre, seguido por Europa e Ásia. O carro recebeu a classificação máxima de segurança do NCAP, graças à arquitetura de segurança em camadas da NVIDIA — quando o modelo de IA não tem confiança suficiente na situação, ele troca imediatamente para um modo de segurança tradicional, garantindo total segurança.
Ecossistema de robôs e futuro industrial, do virtual ao real
Outro destaque foi a estratégia de robótica. Huang apresentou parceiros com robôs humanoides e o robô quadrúpede da Boston Dynamics. Todos os robôs usarão unidades Jetson, treinadas em ambientes simulados com Isaac Simulator baseado no Omniverse.
A visão maior é integrar essa tecnologia em gigantes de software industrial como Synopsys, Cadence e Siemens. Huang acredita que o maior robô é, na verdade, a própria fábrica.
A estratégia de Huang é que, no futuro, o design de chips, sistemas e simulações de fábricas sejam acelerados por IA física. Surpreendentemente, também apareceu um robô da Disney, ao qual Huang brincou: “Vocês serão projetados, fabricados e testados primeiro no computador, antes mesmo de enfrentarem a gravidade real”.
Se focarmos na segunda metade da apresentação, parecerá que estamos vendo o lançamento de produtos de uma empresa de robótica ou modelos de IA.
De fornecedor de chips a habilitador de IA, a mudança de estratégia de Jensen Huang
Num contexto de debates sobre a bolha da IA, a apresentação de Huang revela uma estratégia mais profunda. Além de a Lei de Moore desacelerar e limitar as melhorias de desempenho tradicionais, ele quer usar plataformas como Vera Rubin para demonstrar o valor real da IA — evoluindo de mera capacidade de cálculo para aplicações concretas.
Essa mudança de foco, de vender apenas hardware para impulsionar a IA, para se tornar um habilitador de IA, não se limita ao hardware. A NVIDIA investe fortemente na camada de aplicações e ecossistema — apoiando modelos open source, construindo o DGX Cloud, desenvolvendo IA física, modelos de condução autônoma e de saúde, tudo com exemplos práticos de como a IA pode transformar o mundo.
Por fim, um detalhe interessante: devido ao tempo limitado na CES, Huang preparou muitos slides que não conseguiu mostrar ao vivo. Ele criou um vídeo humorístico compilando esses conteúdos não exibidos, refletindo seu estilo de liderança — sério na inovação, mas com uma visão descontraída sobre o setor.