
De acordo com a Bloomberg em 16 de abril, a OpenAI, a Anthropic PBC e o Google iniciaram uma colaboração por meio do setor de organização sem fins lucrativos Frontier Model Forum, compartilhando informações para detectar e impedir comportamentos de extração (steaming) de modelos de IA adversariais que violam os termos de serviço. A OpenAI confirmou à Bloomberg que participa do trabalho de compartilhamento de informações sobre extração adversarial.
O Frontier Model Forum foi cofundado em 2023 pela OpenAI, Anthropic, Google e Microsoft. De acordo com a Bloomberg, as três empresas atualmente trocam informações por meio dessa organização, com o objetivo de identificar solicitações massivas de dados adversariais, rastrear tentativas de extração que violam os termos de serviço e coordenar para impedir as ações relacionadas. O Google já publicou um post indicando que identificou um aumento nas tentativas de extração de modelos.
De acordo com a Bloomberg, esse modelo de compartilhamento de informações está alinhado com as práticas existentes na indústria de segurança na rede, que há muito tempo reforça a defesa por meio da troca entre empresas de dados de ataques e estratégias dos adversários.
De acordo com um memorando (fevereiro de 2026) apresentado pela OpenAI ao Comitê Especial da Câmara dos EUA sobre a China (House Select Committee on China), a OpenAI acusa a empresa chinesa de IA DeepSeek de tentar “pegar carona” (“carona”) na tecnologia desenvolvida pela OpenAI e outros laboratórios americanos de ponta, e afirma que ela continua usando técnicas de extração de dados para extrair resultados de modelos americanos para desenvolver uma nova versão de um robô de chat, além de adotar métodos cada vez mais sofisticados.
A Anthropic divulgou um comunicado em fevereiro de 2026, identificando três laboratórios chineses de IA — DeepSeek, Moonshot e MiniMax — e os acusando de extrair ilegalmente funcionalidades do modelo Claude por meio de extração adversarial. A Anthropic já havia proibido empresas chinesas de usar o Claude em 2025. A Bloomberg também já havia reportado que, depois de o DeepSeek lançar o modelo de raciocínio R1 em janeiro de 2025, a Microsoft e a OpenAI abriram investigações sobre se houve extração ilegal de dados de modelos americanos.
De acordo com documentos públicos de política, autoridades do governo Trump indicaram estar dispostas a promover o compartilhamento de informações entre empresas de IA para lidar com ameaças de extração adversarial. O “Plano de Ação para a Inteligência Artificial” divulgado pelo presidente Trump faz um apelo explícito à criação de compartilhamento de informações e centros de análise, e parte desse objetivo é justamente enfrentar as condutas acima.
De acordo com a Bloomberg, a abrangência do compartilhamento de informações sobre extração técnica entre as três empresas ainda é limitada, porque elas não têm certeza de quais informações podem ser compartilhadas em conformidade com as orientações antitruste vigentes; as três empresas disseram que pretendem expandir o escopo da colaboração após o governo dos EUA definir claramente as estruturas de orientação relevantes.
De acordo com a Bloomberg, as três empresas realizam o compartilhamento de informações por meio do Frontier Model Forum. Essa organização foi cofundada em 2023 pela OpenAI, Anthropic, Google e Microsoft, e é uma organização sem fins lucrativos do setor.
De acordo com informações públicas da OpenAI, a OpenAI enviou um memorando (fevereiro de 2026) ao Comitê Especial da Câmara dos EUA sobre a China, acusando o DeepSeek de usar técnicas de extração de dados para extrair continuamente resultados de modelos americanos e, com base nisso, desenvolver uma nova versão de robôs de chat.
De acordo com um comunicado público da Anthropic, a Anthropic proibiu empresas chinesas de usar o modelo Claude em 2025 e, em fevereiro de 2026, identificou três laboratórios chineses de IA — DeepSeek, Moonshot e MiniMax —, acusando-os de extrair ilegalmente funcionalidades do modelo Claude por meio de extração adversarial.
Related Articles
Samsung SDS Expande Parceria com Google Cloud para Atender Setores Regulados com Serviços de IA e Segurança
Sullivan & Cromwell Pede Desculpas por Alucinações de IA em Petição Judicial com 40 Citações Errôneas
Tencent Lança e Disponibiliza em Código Aberto Prévia do Hunyuan Hy3 com 295B de Parâmetros
Coreia do Sul e Vietnã firmam 70+ MOUs em IA, Energia e Infraestrutura de Dados
Engenho de respostas por IA é alvo de poluição coletiva: 56% das respostas corretas no Gemini 3 não têm suporte de fonte
Anthropic Diz ao Tribunal que Modelos de IA do Pentágono Implantados Não Têm 'Kill Switch'