Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
O Google mira publicamente na rede de data centers de grande escala 'Vergo' voltada para 'IA de agente'... fortalecendo a capacidade de lidar com atrasos e falhas
O Google anunciou uma rede de data centers de grande escala e infraestrutura multi-nuvem para a era da ‘Inteligência Artificial Agente (Agentic AI)’. À medida que ambientes que chamam ferramentas externas em milissegundos se tornam cada vez mais comuns, a competição por infraestrutura que reduz a latência e processa operações em larga escala de forma estável está se intensificando.
No dia 24, o Google lançou seu novo sistema de rede de infraestrutura de IA, a ‘Rede Virgo’. Este sistema visa melhorar a velocidade de comunicação geral entre clusters de aceleradores, bem como entre recursos de memória, computação e armazenamento dentro dos data centers.
O ponto central é a estrutura de rede ‘planar’. Este método reduz o gargalo ao diminuir o número de camadas pelas quais os dados passam durante a transmissão. Segundo o Google, a rede Virgo pode conectar até 134.000 chips, incluindo o processador TPU 8t de 8ª geração usado para treinamento. Sua largura de banda bidirecional pode atingir até 47 petabits por segundo (Pbps). A empresa afirma que, em comparação com a geração anterior, a largura de banda por acelerador aumentou mais de 4 vezes.
Uma parte notável do anúncio é que, além da simples competição de velocidade, há um forte foco na ‘resiliência’. Em clusters de IA de escala ultragrande, falhas, latência e queda de velocidade de alguns dispositivos são quase inevitáveis. O Google afirmou que, para resolver esse problema, eles combinaram uma funcionalidade de ‘visibilidade’ que monitora detalhadamente o estado geral da rede com softwares de desvio e recuperação automáticos. Além disso, a rede aplica uma camada de troca independente para garantir que, mesmo com latência ou falhas na rede, o throughput geral não oscile drasticamente.
O Google descreve a rede Virgo como algo que não é uma simples expansão de data centers existentes, mas um produto de infraestrutura independente, cujo conceito de design é ‘projetar toda a instalação como um supercomputador’. A empresa defende que, monitorando o sistema em menos de 1 milissegundo, é possível otimizar problemas de congestionamento instantâneo e gerenciamento de buffers durante todo o hardware e software. Isso é especialmente importante em ambientes onde agentes de IA precisam lidar simultaneamente com chamadas de ferramentas, raciocínio e tarefas de geração aprimorada por recuperação (RAG).
Lançamento simultâneo de camadas de conexão e segurança que rompem fronteiras de nuvem
Além da rede de data centers, o Google também lançou camadas de conexão e segurança na nuvem voltadas para cargas de trabalho de IA agente. A empresa resumiu essa atualização em quatro pilares: ‘Cálculo Flexível’, ‘Conexão Segura Multi-Nuvem’, ‘Camada de Dados Unificada’ e ‘Soberania Digital’.
Primeiro, ‘Cálculo Flexível’ é uma arquitetura destinada a lidar de forma mais eficiente com as flutuações na demanda de agentes de IA. Como os serviços de IA frequentemente enfrentam picos de solicitações, o Google explicou que aumentou a acessibilidade às CPUs para responder mais rapidamente e de forma mais econômica a essas demandas. Em particular, a arquitetura oferece recursos de CPU otimizados para tarefas como raciocínio, orquestração de agentes e geração aprimorada por recuperação, complementando a insuficiência de GPUs.
Para isso, o Google aplicou CPUs C4N e M4N em máquinas virtuais (VMs) baseadas no Google Compute Engine e Google Kubernetes Service. Segundo a empresa, esse sistema consegue processar até 95 milhões de pacotes de dados por segundo, até 40% mais rápido do que os principais provedores de nuvem de grande escala.
Na área de conexão segura multi-nuvem, o ‘Gateway de Agentes’ ocupa uma posição central. Este controlador monitora o acesso dos agentes de IA e controla fundamentalmente protocolos como o Protocolo de Contexto de Modelo (MCP) e o Protocolo entre Agentes (A2A). A explicação indica que esse gateway garante, em ambientes multi-nuvem, que o fluxo de dados entre diferentes redes seja visível e protegido.
‘IA na direção dos dados, não movendo-os’
A camada de dados unificada foca em permitir que a IA compreenda e utilize diretamente dados dispersos em múltiplos repositórios empresariais. Segundo o Google, ‘Armazenamento Inteligente’ injeta metadados nos objetos de dados, transformando o que antes era ‘dados estáticos’ em ativos de conhecimento legíveis por IA.
Uma vez estabelecida, essa arquitetura permite aplicar buscas semânticas em informações de diversos formatos, como planilhas, documentos, PDFs e imagens, além de realizar anotações automáticas e extração de insights. Essa abordagem visa reduzir o fenômeno de ‘ilhas’ de dados presos em repositórios específicos, ajudando os agentes de IA a encontrar informações necessárias mais rapidamente.
O ‘Catálogo de Conhecimento’ divulgado conecta o conhecimento interno da empresa em forma gráfica, ajudando os agentes de IA a entender melhor os processos de negócios e o contexto. O Google enfatiza que, por meio dessa estratégia, é possível otimizar o aprendizado e a resposta da IA sem mover dados de forma isolada. Em outras palavras, a abordagem não é transferir dados para um local central, mas permitir que os modelos de IA operem no ‘ambiente privado’ onde os dados estão armazenados.
Este lançamento indica que o foco da competição em IA está mudando rapidamente de desempenho de modelos para a infraestrutura de rede, segurança e dados que suportam sua operação. Especialmente com a introdução oficial de IA agente nos negócios, baixa latência, alta resiliência e gerenciamento multi-nuvem podem se tornar as principais vantagens competitivas. Essa iniciativa do Google é vista como um sinal de que a competição entre grandes empresas de tecnologia por liderança em infraestrutura de IA está se intensificando ainda mais.
Notas do TP AI Este artigo foi resumido usando o modelo de linguagem do TokenPost.ai. O conteúdo principal pode ter sido omitido ou estar em desacordo com os fatos.