Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Modelo de IA misterioso Mythos vazou! Organização ilegal já implantou cópias, a defesa de segurança da Anthropic foi quebrada?
Modelo de segurança confidencial Mythos, desenvolvido pelo gigante de inteligência artificial Anthropic, vazou, o modelo possui capacidades extremas de detectar automaticamente vulnerabilidades de zero-day e penetrar sistemas criptografados.
A linha de defesa principal foi rompida? Modelo misterioso Mythos da Anthropic vazou
De acordo com uma investigação aprofundada publicada ontem (21/04) pelo 《TechCrunch》 e 《Bloomberg》, o altamente confidencial modelo de segurança cibernética “Mythos”, desenvolvido pelo gigante de inteligência artificial Anthropic, foi obtido e utilizado ilegalmente por uma organização não autorizada. Essa ferramenta, codinome Mythos, foi projetada especificamente para defesa de rede extremamente complexa e simulação de ataques, possuindo capacidade de identificar automaticamente vulnerabilidades de zero-day e penetrar infraestruturas altamente criptografadas.
A política oficial da Anthropic tem sido de restringir o acesso a esse modelo de forma extremamente fechada, limitando-o a contratantes de defesa específicos e unidades governamentais centrais, mas o vazamento revela uma falha significativa nos protocolos de segurança em nuvem internos. Fontes de inteligência indicam que a organização não autorizada conseguiu implantar com sucesso uma cópia do Mythos em servidores de nuvem privada de terceiros, o que significa que a fortaleza de segurança da Anthropic foi comprometida. O vazamento envolve uma escala ampla, incluindo documentos técnicos e pesos do modelo original, estimados em mais de 500 milhões de dólares, e a rota de fuga parece estar relacionada a uma vulnerabilidade de API na cadeia de suprimentos.
Atualmente, essa tecnologia está fora de controle, e qualquer grupo com habilidades básicas de desenvolvimento pode potencialmente usar o modelo para lançar ataques automatizados sem precedentes contra sistemas financeiros globais ou protocolos de blockchain, causando ansiedade extrema na comunidade de segurança de Silicon Valley e Washington.
Envolvimento da NSA em controvérsia: uso de ferramenta de IA na lista negra
Além disso, após o Mythos ser incluído na lista negra de segurança interna da Agência de Segurança Nacional dos EUA (NSA), ela manteve o direito de usar a ferramenta. Essa ação gerou debates acalorados sobre transparência e conformidade de agências governamentais. Apesar de a Casa Branca ter enfatizado em várias ordens executivas a integridade da cadeia de suprimentos de modelos de IA e proibido explicitamente o uso de ferramentas com riscos de segurança ou origem desconhecida, a NSA parece depender das poderosas capacidades de decodificação do Mythos.
Fontes internas de inteligência revelam que o departamento técnico da NSA, ciente de que o modelo pode já ter sido comprometido por terceiros, integrou-o em várias operações de escuta altamente sensíveis e contra-ataques de rede. Essa decisão de priorizar vantagem tecnológica em detrimento da conformidade coloca o governo federal em uma contradição interna.
Análises de mercado atuais indicam que esse comportamento arriscado aumenta o risco de reversão de segredos nacionais. Se o Mythos for implantado com backdoors durante o processamento, todas as informações manipuladas por ele podem ser imediatamente transmitidas a organizações externas. O potencial de vazamento de dados está sendo avaliado por múltiplos comitês de supervisão, mas a NSA até agora se recusou a comentar publicamente sobre a implantação específica do Mythos, reiterando que suas operações estão alinhadas aos interesses de segurança nacional.
Risco na cadeia de suprimentos acende alerta vermelho; Casa Branca e Pentágono investigam rotas de fuga tecnológica
Atualmente, a Casa Branca e o Pentágono estão conduzindo uma investigação de emergência interagências sobre o vazamento do Mythos, com foco na vulnerabilidade crescente na cadeia de fornecimento de software de IA. O incidente revelou uma vulnerabilidade central no desenvolvimento de IA moderna: mesmo com desenvolvedores como a Anthropic adotando altos padrões de segurança, uma vez que o modelo é entregue a fornecedores terceirizados, o controle sobre ele diminui drasticamente.
O Pentágono está revisando seus mais de 2.000 contratos relacionados, tentando identificar os pontos específicos onde o Mythos foi entregue a organizações não autorizadas. Evidências preliminares sugerem que o problema pode estar em um ponto de teste fora da América do Norte, onde, durante testes de desempenho sob pressão, as restrições de acesso de hardware não foram devidamente ativadas, levando à exportação em massa dos pesos do modelo.
Em resposta, o conselheiro de segurança nacional da Casa Branca alertou todas as empresas privadas com capacidade de pesquisa em IA para reforçar a proteção de isolamento físico de grandes modelos de linguagem (LLMs).
Autoridades do Pentágono afirmam que o risco de disseminação de modelos de IA é semelhante ao de proliferação nuclear, especialmente com ferramentas como Mythos, que possuem lógica de ataque autônomo na rede. Uma vez na mão do mercado cinza, podem desencadear uma catástrofe global de segurança cibernética.
O governo está considerando implementar um sistema mais rigoroso de “impressão digital de modelos”, exigindo que todas as ferramentas de IA que ultrapassarem determinado limite de capacidade computacional tenham etiquetas rastreáveis inalteráveis, para facilitar a rastreabilidade em caso de vazamento.
Crise de confiança sob controle rigoroso e impacto na indústria
Essa tempestade de vazamento de tecnologia da Anthropic está rapidamente evoluindo para uma crise de confiança na indústria de IA. Como uma líder que sempre defendeu “segurança de IA” e “integração tecnológica”, a Anthropic não conseguiu proteger sua ferramenta de rede central, levantando fortes dúvidas sobre a segurança de modelos fechados.
Profissionais do setor de criptomoedas alertam que esse incidente tem implicações profundas para o desenvolvimento de finanças descentralizadas (DeFi). Com a introdução de modelos de auditoria automática em contratos inteligentes, se até Mythos, com seus recursos de segurança de ponta, pode ser interceptado ilegalmente, a lógica de auditoria de código atual pode já estar comprometida diante de hackers. Há uma crescente demanda por descentralização de poder computacional de IA e maior transparência de modelos, para evitar que falhas de uma única entidade causem desastres tecnológicos globais.
Desde o vazamento, a capitalização de mercado da Anthropic tem sofrido oscilações extremas, refletindo a preocupação dos investidores com sua capacidade de gerenciar tecnologias de alto risco. O incidente também levou organizações internacionais de segurança a reavaliar estratégias de defesa de “IA soberana” e a buscar um novo equilíbrio entre controle rigoroso e inovação tecnológica. Nos próximos meses, os critérios de entrada e distribuição de ferramentas de IA passarão por uma revisão legislativa mais severa. Este evento demonstra que, na arquitetura atual, qualquer ativo digital só possui segurança relativa, e lidar com essa incerteza será o foco principal da indústria de ativos digitais e segurança cibernética.
Leituras adicionais
Juiz critica violação constitucional do exército dos EUA! Requer retirada da etiqueta de risco na cadeia de fornecimento da Anthropic, relatório até 06/04
Anthropic processa o governo! Acusa Trump de retaliação por bloquear Claude, 37 pesquisadores de IA apoiam
The Wall Street Journal: Após a ordem de bloqueio da Anthropic por Trump, EUA e Israel continuam dependentes de Claude para ataques ao Irã
Segurança nacional vs ética: Anthropic recusa remover o escudo de segurança de Claude, confronto com o Departamento de Defesa dos EUA