600 funcionários do Google assinam protesto: recusam entrada do Gemini na rede militar secreta da Casa Branca

Mais de 600 funcionários do Google (incluindo mais de 20 vice-presidentes e executivos seniores) assinaram uma carta ao CEO Sundar Pichai, solicitando que a empresa rejeite o novo acordo para expandir o Gemini para redes confidenciais do Pentágono.
Os funcionários apontaram que, em ambientes confidenciais, nenhuma entidade externa consegue controlar sistemas de IA, e as medidas de proteção existentes são tecnicamente inviáveis de serem implementadas.
(Resumindo: Guia de startups do Y Combinator interpreta: Quais são as tendências futuras do agente de IA?)
(Informação adicional: Estudo da Universidade da Califórnia sobre o fenômeno de “névoa cerebral de IA”: 14% dos trabalhadores ficam loucos com agentes e automação, com 40% considerando deixar o emprego)

Índice deste artigo

Alternar

  • De não confidencial a confidencial
  • O dilema estrutural em ambientes confidenciais
  • O desaparecimento silencioso dos princípios de IA do Google, em contraste com a história do Maven

Mais de 600 funcionários do Google assinaram uma carta ao CEO Sundar Pichai, incluindo pesquisadores seniores do DeepMind, mais de 20 vice-presidentes e executivos seniores, pedindo que a empresa não autorize o Gemini a acessar redes militares confidenciais do Pentágono.

De não confidencial a confidencial

Vamos primeiro organizar a colaboração entre as partes. No final de 2022, o Google, junto com a AWS, Microsoft e Oracle, conquistou uma importante licitação de nuvem do Departamento de Defesa dos EUA, o JWCC, com limite total de 9 bilhões de dólares.

Em dezembro de 2025, a plataforma GenAI.mil, baseada no Gemini, foi oficialmente lançada para ambientes não confidenciais.

Até março de 2026, o agente de IA Gemini já foi implantado para uso por todos os 3 milhões de funcionários do Departamento de Defesa.

Tudo isso ainda são aplicações em ambientes não confidenciais.

Mas o novo acordo em negociação visa expandir as funcionalidades do Gemini para ambientes “confidenciais”: ou seja, redes isoladas fisicamente, desconectadas de qualquer rede externa, usadas exclusivamente para operações militares confidenciais. Simplificando: o Gemini entrará na sala de comando de operações.

As divergências na mesa de negociação são claras. O Google tenta estabelecer limites contratuais: proibir o uso do Gemini para rastrear cidadãos nacionais ou tomar decisões de ataque sem intervenção humana. Mas a posição do Pentágono é de “todos os usos legítimos”, sem deixar qualquer área claramente proibida, e com regras explícitas de que fornecedores externos não terão controle algum sobre seus sistemas de IA.

Essas duas condições entram em conflito direto. Os funcionários do Google, na carta conjunta, afirmam que as medidas de proteção propostas “não podem ser tecnicamente implementadas”.

O dilema estrutural em ambientes confidenciais

Os signatários da carta apontam uma questão fundamental: “Trabalho confidencial, por definição, é algo não transparente.” Isso significa que, uma vez que o Gemini entre na rede confidencial, nem mesmo o Google consegue ver o que ele está fazendo.

Em ambientes não confidenciais, o Google pode auditar chamadas de API, monitorar saídas do modelo, configurar barreiras de proteção e intervir ao detectar problemas. Em ambientes confidenciais, esses recursos simplesmente não existem.

Os funcionários listam preocupações específicas: análises de perfil (profiling, ou seja, usar IA para criar modelos de comportamento e identidade de indivíduos-alvo), e transformar civis inocentes em alvos de ataque. Esses cenários não são hipóteses, mas práticas já existentes no uso de IA em operações militares.

O dilema da gestão atual do Google é que ela não consegue garantir, tecnicamente, aos funcionários que o Gemini não será usado para esses fins, pois ele simplesmente não consegue ser validado dentro dessas redes.

O desaparecimento silencioso dos princípios de IA do Google, em contraste com a história do Maven

Em fevereiro de 2025, o Google modificou silenciosamente seus princípios de uso de IA, removendo a cláusula que proibia explicitamente o desenvolvimento de armas ou sistemas de vigilância baseados em IA. O CEO do DeepMind, Demis Hassabis, justificou a mudança dizendo que a competição global por liderança em IA estava se intensificando, e organizações de direitos humanos e a Anistia Internacional imediatamente condenaram publicamente a alteração.

No caso Maven de 2018, 4.000 funcionários assinaram uma petição, e pelo menos 12 renunciaram, levando o Google a não renovar o contrato, que foi assumido pela Palantir.

Maven, projeto do Google com o Departamento de Defesa dos EUA em 2018

Este projeto tinha como objetivo usar as tecnologias de IA e aprendizado de máquina do Google para analisar automaticamente imagens de drones, ajudando o exército dos EUA a identificar alvos. No entanto, gerou forte resistência ética interna, marcando um ponto de virada na história de cooperação entre tecnologia e militar.

O sucesso do Maven se deve, em parte, ao fato de que, em 2018, as aplicações militares de IA ainda eram um tema marginal, e o custo de reputação para o Google era maior do que o valor do contrato. Oito anos depois, a IA tornou-se uma peça central na infraestrutura de defesa, com Google, AWS e Microsoft competindo intensamente pelos contratos.

Posição de mercado, pressão política e o cenário competitivo apontam na mesma direção: uma carta, por mais forte que seja, parece insuficiente para enfrentar os interesses de mercado por trás de contratos tão grandes.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar