Google, expansão de implantação local do Gemini... Será que é possível resolver o conflito entre "controle vs desempenho" na infraestrutura de IA empresarial

robot
Geração do resumo em andamento

html

Superar a geração de IA, a era da “IA Agente” capaz de executar tarefas autonomamente já chegou, e os padrões de design de infraestrutura empresarial também estão mudando rapidamente. Especialmente em setores regulados, órgãos governamentais e empresas com forte exigência de soberania de dados, há uma demanda por uma infraestrutura “pronta para IA” que permita rodar os modelos de IA mais recentes em ambientes internos, sem precisar transferir dados sensíveis para fora.

Para atender a essas necessidades, o Google está expandindo sua estratégia de infraestrutura, permitindo que empresas utilizem seus próprios modelos de IA e tecnologias de nuvem em ambientes locais. Muninder Sambi, vice-presidente e gerente geral do departamento de rede e segurança do Google, afirmou recentemente na Google Cloud Next: “As empresas sempre enfrentaram a escolha de cumprir soberania e regulamentações ou abrir mão desses princípios e migrar para a nuvem. A nuvem distribuída do Google é exatamente a solução que traz o Gemini e as capacidades de IA do Google para ambientes locais.”

Gemini em parceria com NVIDIA, Dell, expandindo para redes internas

Google em colaboração com NVIDIA ($NVDA) e Dell Technologies ($DELL) apoia a execução de modelos baseados em Gemini em ambientes isolados de rede pública e em ambientes locais conectados à internet. Especialmente, o modelo Gemini Flash já suporta implantação local baseada em GPUs NVIDIA Blackwell B200 e B300. Para as empresas, isso significa poder rodar cargas de trabalho de “IA soberana” sem vazamento de dados.

Sambi destacou que isso não é apenas fornecer uma “fábrica de IA”, mas oferecer um “motor de IA” que permita às empresas construir seus próprios sistemas de produção de IA. Para setores como finanças, saúde, defesa e setor público, que enfrentam dificuldades com a nuvem, essa é uma mudança que merece atenção.

Kubernetes se torna o sistema operacional da era da IA

Com a expansão da infraestrutura de IA local, o papel do Kubernetes também se torna cada vez mais importante. Drew Bradstock, diretor sênior de produtos do Google Kubernetes e Google Compute Engine, avaliou que o Kubernetes hoje desempenha o papel de um “sistema operacional” para tarefas de IA, incluindo treinamento, inferência e aprendizado por reforço.

Ele explicou que, no início da popularização de grandes modelos de linguagem, ainda não era claro se o Kubernetes poderia se tornar o núcleo de controle da IA, mas à medida que o ecossistema de código aberto evolui rapidamente para um ambiente favorável à IA, ele se tornou a base para rodar agentes em ambientes híbridos. Em um cenário onde as empresas desejam implantar serviços de IA em múltiplos ambientes, os benefícios da padronização do Kubernetes se destacam novamente.

Agora, os usuários não se limitam mais a humanos

A disseminação da IA Agente não só muda a forma de operação da infraestrutura, mas também está transformando a filosofia de design de produtos. Bradstock afirmou que o foco na experiência do desenvolvedor não precisa mais ser exclusivamente humano. Com a IA Agente substituindo significativamente tarefas de codificação e operação, documentos, interfaces e até ferramentas estão sendo redesenhados para serem estruturas “fáceis de ler e usar por IA”.

Ele comentou: “O novo DevOps está usando Claude e Gemini para lidar com tarefas”, e destacou que ambientes de usuário, documentos e várias ferramentas estão sendo reestruturados em torno de “habilidades”. Isso sugere que, no futuro, o software empresarial pode evoluir além de interfaces projetadas para humanos, tornando-se estruturas que permitem que IA agentes chamem e executem diretamente.

Objetivo central: equilibrar “manter o controle” e “garantir desempenho”

O núcleo dessa transformação é que as empresas não querem mais escolher entre controle de dados e desempenho de IA. Infraestrutura de IA pronta para uso hoje não é mais apenas expansão de servidores, mas uma abordagem de design integrada que combina soberania de dados, recursos de GPU, implantação de modelos, governança e orquestração.

Do ponto de vista de mercado, essa estratégia do Google mostra que as empresas de nuvem estão novamente aprofundando sua atuação em ambientes locais e híbridos. Com a implementação de IA pelas empresas oficialmente iniciada, o sucesso não depende apenas do desempenho do modelo, mas de como implantá-lo de forma segura e flexível no ambiente operacional real.

Aviso do TP AI Este texto é um resumo gerado por um modelo de linguagem baseado no TokenPost.ai. Pode haver omissões de conteúdo principal ou divergências em relação aos fatos.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar