Anthropic recorreu da decisão, e o rótulo de "risco na cadeia de abastecimento" do Pentágono mantém-se inalterado

robot
Geração do resumo em andamento

Profundas notícias da TechFlow, a 09 de abril, segundo a CoinTelegraph, o Tribunal de Apelações do Distrito de Colômbia dos Estados Unidos rejeitou o pedido de medida urgente da empresa de IA Anthropic, mantendo a classificação do Departamento de Defesa relativa ao seu “risco para a cadeia de abastecimento nacional em matéria de segurança”. Os três juízes consideraram que, durante um conflito militar, os interesses do Governo em controlar a tecnologia de IA prevalecem sobre as perdas financeiras e de reputação que a Anthropic poderia sofrer. Esta etiqueta nunca tinha sido aplicada anteriormente a empresas com base em solo norte-americano e fará com que os empreiteiros do Pentágono não possam utilizar os modelos Claude da Anthropic.

O caso teve origem num contrato celebrado em julho de 2025 entre as duas partes, quando as negociações falharam em fevereiro de 2026 — o Governo exigiu que a Anthropic permitisse o uso ilimitado do Claude em operações militares, enquanto a empresa manteve a sua oposição a que fosse utilizado em armas autónomas letais e em vigilância massiva no país. Depois disso, Trump ordenou que as agências federais suspendessem completamente os produtos da Anthropic, e a Anthropic apresentou uma ação judicial em março. Atualmente, este processo continua a avançar em paralelo em duas vias judiciais: no Tribunal Distrital da Califórnia e no Distrito de Colômbia.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar