Casa Branca Acusa a China de Roubo em 'Escala Industrial' de Modelos de IA Americanos

Resumidamente

  • A Casa Branca afirma que entidades estrangeiras, principalmente na China, estão realizando campanhas de “escala industrial” para copiar modelos de IA dos EUA.
  • Oficiais dizem que atacantes usam contas proxy e jailbreaks para extrair capacidades do modelo e dados proprietários.
  • O memorando pede que agências federais e a indústria privada desenvolvam defesas e responsabilizem atores estrangeiros.

A Casa Branca alertou na quinta-feira que “entidades estrangeiras” estão supostamente realizando campanhas de “escala industrial” para copiar as capacidades de modelos de inteligência artificial americanos, usando táticas incluindo jailbreaks e redes de contas falsas para extrair informações proprietárias e replicar seu desempenho. Em um memorando intitulado “Destilação Adversarial de Modelos de IA Americanos”, o Assessor do Presidente para Ciência e Tecnologia e Diretor do Escritório de Ciência e Política de Tecnologia, Michael Kratsios, afirmou que o governo dos EUA possui informações indicando esforços coordenados para destilar sistemas de IA de fronteira dos EUA. “Os EUA têm evidências de que entidades estrangeiras, principalmente na China, estão realizando campanhas de destilação em escala industrial para roubar IA americana,” escreveu Kratsios no X. “Tomaremos medidas para proteger a inovação americana.”

De acordo com a administração do presidente Donald Trump, as campanhas usam “dezenas de milhares de contas proxy” para evitar detecção e explorar técnicas de jailbreak para extrair capacidades de forma sistemática, em um que é conhecido como ataque de destilação.

Os EUA têm evidências de que entidades estrangeiras, principalmente na China, estão realizando campanhas de destilação em escala industrial para roubar IA americana. Tomaremos medidas para proteger a inovação americana.

Essas entidades estrangeiras estão usando dezenas de milhares de proxies e jailbreaks… pic.twitter.com/kSp1FReI7J

— Diretor Michael Kratsios (@mkratsios47) 23 de abril de 2026

Um ataque de destilação é um método de treinar um modelo de IA menor para aprender com as saídas de um maior. A questão tem se tornado uma preocupação crescente entre as empresas de IA dos EUA. Em fevereiro, a Anthropic acusou laboratórios chineses de IA, DeepSeek, Moonshot e MiniMax, de extrair milhões de respostas do Claude — usando aproximadamente 24.000 contas fraudulentas — para treinar sistemas concorrentes. Modelos desenvolvidos por meio de campanhas não autorizadas de destilação podem não alcançar o desempenho completo dos originais. Ainda assim, podem parecer comparáveis em certos benchmarks a uma fração do custo.

A administração alertou que ataques de destilação também podem remover salvaguardas de segurança e outros controles projetados para manter os sistemas de IA “ideologicamente neutros e em busca da verdade.”  A administração Trump afirmou que agências federais trabalharão com empresas de IA dos EUA para fortalecer as proteções em torno de modelos de fronteira, coordenar com a indústria privada para desenvolver defesas contra campanhas de destilação em grande escala, e explorar maneiras de responsabilizar atores estrangeiros. Embora o memorando reconheça que a destilação legal pode ajudar a criar modelos menores, mais eficientes, de código aberto e de peso aberto, afirmou que esforços não autorizados de copiar sistemas de IA americanos cruzam a linha. “Não há nada de inovador em extrair e copiar sistematicamente as inovações da indústria americana,” disse o memorando. O Escritório de Ciência e Tecnologia não respondeu imediatamente a um pedido de comentário do Decrypt.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar