Agência de Segurança dos EUA usa secretamente Anthropic Mythos: uma abordagem de duas faces, com o Pentágono ao mesmo tempo bloqueando e permitindo

robot
Geração de resumo em curso

EUA, o Departamento de Segurança Nacional (NSA) supostamente está a usar a ferramenta de IA Mythos de alto nível da Anthropic — justamente enquanto a sua unidade superior, o Departamento de Defesa (DoD), a classifica como uma «risco na cadeia de fornecimento» e move processos judiciais para impedir que os modelos da Anthropic entrem no sistema governamental.
De acordo com uma reportagem exclusiva da Axios de 19/04, essa batalha absurda entre mãos opostas também torna a relação entre a Anthropic e o governo dos EUA ainda mais complexa.
(Resumindo: Anthropic e o governo Trump estão a reatar relações? O Secretário do Tesouro e o Chefe de Gabinete da Casa Branca encontram-se com o CEO Dario Amodei)
(Informação adicional: O novo modelo Mythos da Anthropic é tão potente que nem eles próprios se atrevem a liberar: consegue, em poucas horas, invadir autonomamente todos os Linux do mundo e criar cadeias completas de vulnerabilidades)

Índice deste artigo

Alternar

  • Mythos: a IA da Anthropic trancada numa caixa de segurança
  • Não ganharam a ação, mas os negócios estão a descongelar
  • Onde está a linha vermelha: as agências de vigilância podem usar ferramentas «não para vigilância»?
  • O jogo tripartido de IA dentro do governo dos EUA

Pentágono diz que a Anthropic representa um risco na cadeia de fornecimento, mas a NSA já está a usar silenciosamente a ferramenta de IA mais poderosa da Anthropic — isto não é uma piada de humor negro,

Segundo a Axios de 19/04, uma unidade do Departamento de Defesa (DoD) já classificou oficialmente a Anthropic como «risco na cadeia de fornecimento», alegando que a ferramenta de IA pode ameaçar a segurança nacional dos EUA. No entanto, a mesma entidade, a Segurança Nacional (NSA), está a testar a versão mais recente e também mais restrita do modelo Mythos Preview. Uma organização com duas unidades subordinadas a ela, com posições completamente opostas em relação à mesma empresa.

Mythos: a IA trancada numa caixa de segurança da Anthropic

Mythos não é um modelo comum de Claude. A Anthropic, através da aliança Project Glasswing, limita o acesso a cerca de 40 organizações, incluindo gigantes tecnológicos e financeiros como Amazon, Apple, Google, Cisco, CrowdStrike, JPMorgan, Microsoft, Nvidia, entre outros.

A razão é simples: este modelo é demasiado eficaz. Segundo informações conhecidas, os membros do Glasswing usam principalmente Mythos para escanear vulnerabilidades de segurança nos seus próprios ambientes — e já identificaram milhares de vulnerabilidades de alta gravidade em todos os principais sistemas operativos e navegadores. Essa capacidade faz com que a Anthropic opte por controlá-la via lista branca, em vez de torná-la pública.

Como a NSA obteve acesso ao Mythos? Entrou oficialmente na aliança Glasswing? Ainda não se sabe. A reportagem da Axios também admite que não se conhece exatamente como a NSA usa Mythos atualmente. Essa lacuna de informação já demonstra a sensibilidade do assunto.

Não ganharam a ação, mas os negócios estão a descongelar

Voltando a março: a Anthropic entrou com ações contra o Departamento de Defesa em duas cortes federais, desafiando diretamente a decisão do governo Trump de classificá-la como «risco na cadeia de fornecimento». Em 8/04, o Tribunal de Apelações Federal rejeitou o pedido de emergência da Anthropic para suspender a proibição, perdendo assim a primeira rodada legal.

Porém, o que aconteceu fora do tribunal foi completamente diferente. Em 17/04, o CEO da Anthropic, Dario Amodei, foi ao Escritório da Casa Branca para se reunir com a Chefe de Gabinete Susie Wiles e o Secretário do Tesouro Scott Bessent, discutindo justamente a utilização do Mythos por agências governamentais. A existência dessa reunião é um sinal: o governo da Casa Branca não pretende que a etiqueta de «risco na cadeia de fornecimento» do DoD seja a resposta final.

A Casa Branca está a promover ativamente a obtenção de acesso ao Mythos para as agências federais. O Departamento de Defesa exige que o Claude seja disponibilizado «para todos os fins legítimos», e uma reportagem de 16/04 indica que o governo já está a mediar negociações entre a Anthropic e as agências públicas sobre as condições de uso.

Onde está a linha vermelha: as agências de vigilância podem usar ferramentas «não para vigilância»?

A posição central da Anthropic nunca mudou: Mythos não pode ser usado para vigilância em massa no país, nem para o desenvolvimento de armas autônomas. Essas duas restrições estão claramente escritas — não são meramente declarações morais vagas.

O problema é que, na essência, a NSA trabalha com coleta massiva de sinais e monitoramento. Essas duas atividades entram em conflito, e não basta trocar de palavras para resolvê-lo. A Anthropic sabe bem disso — e é por isso que a entrada na aliança Glasswing é tão restrita, e cada cenário de uso dos membros é limitado.

Se a NSA realmente obtiver acesso ao Mythos, o maior problema não será «se está a usar», mas «onde está a usar». A linha entre escaneamento de vulnerabilidades e coleta de inteligência, numa operação de uma agência de inteligência de nível nacional, muitas vezes é apenas uma questão de uma nota interna.

O jogo tripartido de IA dentro do governo dos EUA

O que realmente merece atenção nesta história não é o que a NSA está a usar, mas o fato de que há uma divisão interna clara no governo dos EUA quanto às políticas de segurança nacional relacionadas à IA:

Departamento de Defesa (DoD): bloqueia a Anthropic, alegando risco na cadeia de fornecimento, e move processos judiciais.
Casa Branca (Chefe de Gabinete + Secretário do Tesouro): tenta mediar, promovendo o acesso das agências ao Mythos.
Agências de inteligência (NSA): independentemente do que os outros estejam a discutir, já estão a usar.

Três direções, três lógicas diferentes, operando simultaneamente. Isto não é uma falha de política, mas a realidade de um governo que ainda não encontrou um quadro comum entre o potencial da IA e o controle de segurança nacional.

De uma perspetiva mais ampla, essa contradição revela um padrão que provavelmente se tornará comum: as capacidades das ferramentas de IA já superam a velocidade de adaptação das políticas existentes. O DoD pode dizer nos tribunais que a Anthropic representa risco, enquanto a NSA já usa os modelos da Anthropic — e essas ações não se excluem, pois operam em níveis de decisão diferentes.

Para a Anthropic, essa comédia absurda pode ser o melhor prenúncio de um final positivo: perder a ação não importa, o Casa Branca já está a negociar condições, e as agências de inteligência já estão a usar as ferramentas. A descongelamento político muitas vezes não começa com uma sentença judicial.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar