Análise: Anthropic e OpenAI revelam consecutivamente vulnerabilidades de segurança, levantando preocupações sobre a segurança dos modelos de IA

robot
Geração do resumo em andamento

Notícias do Mars Finance, de acordo com o The Information, Anthropic e OpenAI tiveram incidentes de segurança consecutivos, o que despertou a atenção do mercado para a segurança dos próprios modelos de IA. Atualmente, a Anthropic está investigando uma possívelcesso não autorizado ao seu modelo Claude Mythos por usuários. Quase ao mesmo tempo, a OpenAI também foi revelada por ter, inadvertidamente, aberto vários modelos ainda não lançados em sua aplicação Codex. Opiniões do setor apontam que esses incidentes de vulnerabilidade reforçam a necessidade de avaliar a capacidade de governança de segurança das empresas de IA, além de refletir que, no rápido desenvolvimento da tecnologia de IA, o sistema de segurança ainda precisa ser aprimorado. A análise indica que, mesmo os fornecedores de modelos de IA focados em capacidades de segurança cibernética, ainda enfrentam desafios significativos de segurança. À medida que a IA é gradualmente utilizada para defender contra ataques cibernéticos, a segurança da plataforma e o controle de acesso também se tornam pontos críticos de risco.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar