Com base em um relatório exclusivo da Axios e republicado pela Reuters, a Agência de Segurança Nacional dos EUA (NSA) está usando o modelo mais forte da Anthropic, o Mythos Preview, apesar de a instituição superior, o Departamento de Defesa dos EUA (Department of Defense, DoD), desde fevereiro já ter classificado a Anthropic como “risco de cadeia de suprimentos” e tê-la desativado. Este é o primeiro exemplo público na história da governança de IA nos EUA de uma contradição aberta em que um órgão de um mesmo governo federal bloqueia, enquanto outro órgão, na prática, utiliza.
Mythos só abriu para 40 empresas, enquanto a lista oficial só revela 12
Depois que a Anthropic anunciou publicamente a existência do Claude Mythos em fevereiro, ela concedeu acesso ao preview para apenas cerca de 40 organizações no mundo, e a lista divulgada oficialmente tem só 12. O restante foi intencionalmente ocultado com base em que “capacidades de ciberataque são sensíveis demais”. A NSA, como unidade central no sistema de inteligência dos EUA que lida com informações de sinais (SIGINT) e criptografia, não está entre as 12 empresas na lista pública da Anthropic, mas ainda assim obteve e usa o Mythos — o que levanta duas dúvidas simultâneas no exterior: transparência da lista da Anthropic e autorização de acesso do governo dos EUA.
Proibição do DoD vs conflito interno de uso ampliado pelas forças armadas
A relação entre o Pentágono e a Anthropic se rompeu no começo deste ano. A versão oficial é que, quando houve atualização de contrato, a Anthropic insistiu em excluir finalidades como “monitoramento doméstico em massa e desenvolvimento de armas autônomas”, enquanto o Departamento de Defesa exigiu que o Mythos “fique aberto para todos os usos legais”. Depois que as negociações fracassaram, em fevereiro o DoD colocou a Anthropic na lista de desativação sob o argumento de “risco de cadeia de suprimentos” e determinou que os fornecedores do setor de defesa interrompessem os negócios em conjunto.
Ironicamente, dois meses depois da desativação formal pelo DoD, não só a NSA continuou a usar o Mythos como também várias unidades das forças armadas dos EUA passaram a adotar ainda mais a série de outros modelos da Anthropic Claude. Unidades governamentais argumentaram em documentos públicos de tribunal que “usar ferramentas da Anthropic ameaçaria a segurança nacional”, mas as mesmas unidades continuam usando o Claude internamente para tarefas de segurança da informação e de inteligência. Mais cedo neste mês, o ministro do Tesouro Bessent e o presidente do Fed, Powell, convocaram uma reunião de emergência com líderes do setor bancário para discutir preocupações regulatórias sobre o Mythos; agora as contradições internas vieram à tona, e o risco administrativo do Mythos aumentou de forma significativa.
Dario Amodei vai à Casa Branca para negociar acordo
O CEO da Anthropic, Dario Amodei, já foi à Casa Branca em 17 de abril para se reunir com a chefe de gabinete Susie Wiles e com o secretário do Tesouro Scott Bessent. Segundo a Axios, as conversas se concentraram em três pontos: os limites de uso do Mythos dentro do sistema governamental, as operações e fluxos de auditoria de segurança da Anthropic como um todo e como permitir que “outros órgãos além do Pentágono” continuem obtendo acesso. Os próximos passos podem incluir a criação de um canal de autorização separado para agências federais que não sejam do DoD, ou exigir que a Anthropic divulgue uma lista mais completa de clientes para responder às preocupações regulatórias do Pentágono.
Novo modelo para acesso por níveis e limites de compras governamentais
O caso do Mythos e, na mesma semana, o lançamento do GPT-5.4-Cyber pela OpenAI se conectam: em 2026, os modelos de IA mais avançados entrarão na fase de liberação segmentada em que “quanto maior a capacidade, menor o número de clientes”. Esse tipo de sistema de controle parece rigoroso, mas quando o próprio governo federal dos EUA tem normas internas inconsistentes, na prática equivale a deixar o fabricante (Anthropic) decidir quais unidades governamentais merecem confiança. Para governos e empresas de outros países, a próxima pressão de políticas é: se exigir que fabricantes de IA divulguem listas de autorização de clientes quando envolverem o processamento de dados de cidadãos do próprio país. As ações da Anthropic nas próximas semanas se tornarão um modelo de governança para toda a indústria de IA de ponta.
Este artigo da Axios em primeira mão: a NSA dos EUA contornou a lista negra do DoD e usou o Anthropic Mythos; Dario Amodei foi à Casa Branca com urgência para negociar. Apareceu pela primeira vez em Cadeia de Notícias ABMedia.
Related Articles
O fundador da Pi Network em 7 de maio discutiu a identificação da identidade humana na era da IA no Consensus 2026
DeepX e Hyundai Motor Group Desenvolvem Plataforma de Chip de IA de Baixo Consumo para Robôs
Playdate Proíbe Arte, Música e Texto Gerados por IA; Assistentes de Código Ainda São Permitidos
A Amazon adiciona um investimento de 5 bilhões na Anthropic e um acordo de 10 anos com a AWS garante computação de 1 trilhão
Deputados de Nova York propõem “bônus de IA” para lidar com a onda de desemprego; o Goldman Sachs estima uma perda mensal de 16 mil empregos
O QClaw internacional da Tencent inicia testes em fase beta, com 700 dólares em tokens para os usuários do Japão entrarem primeiro na fila