Prévia do Ultraman: O novo modelo de segurança da OpenAI GPT 5.5-Cyber será lançado em alguns dias, entrando em confronto com Claude Mythos

OpenAI anuncia o lançamento do modelo dedicado à segurança cibernética GPT-5.5-Cyber, voltado para especialistas na área de segurança de rede, enfrentando estratégias de defesa rigorosamente controladas pela Anthropic. O Ultraman previu que, em 2026, ataques cibernéticos que podem abalar o mundo são altamente prováveis.

OpenAI GPT-5.5-Cyber será lançado em poucos dias

O CEO da OpenAI, Ultraman (Sam Altman), anunciou hoje (30/4) que, nos próximos dias, será lançado o GPT-5.5-Cyber, uma nova geração de modelo de segurança de rede, disponível para especialistas na área de segurança cibernética. Ele afirmou que a equipe colaborará com o ecossistema e o governo para encontrar formas confiáveis de acesso, garantindo a segurança de empresas e infraestrutura.

Em abril deste ano, Ultraman, em entrevista ao fundador do Axios, Mike Allen, previu que ataques cibernéticos capazes de abalar o mundo podem ocorrer em 2026.

A opinião pública continua discutindo se suas declarações refletem com precisão a situação de ameaça, enquanto recentemente a Anthropic lançou o modelo Claude Mythos, capaz de identificar vulnerabilidades de software de forma autônoma, o que intensificou o debate e também despertou preocupações do governo dos EUA.

  • Reportagem relacionada: Claude Mythos ameaça a segurança financeira? Tesoureiro dos EUA e presidente do Fed convocam reunião de emergência para alertar sobre riscos

OpenAI planeja levar ferramentas de segurança cibernética a todos os níveis de governo

A divergência entre OpenAI e Anthropic quanto às estratégias de defesa reflete um debate mais amplo no campo de IA.

Segundo a CNN, até recentemente, o programa de confiança e acesso à segurança de rede da OpenAI era limitado a poucos parceiros, e agora está sendo expandido para todos os níveis governamentais sob revisão, desde agências federais até locais, permitindo que unidades autorizadas usem versões especiais de modelos com menos restrições.

Sasha Baker, chefe de políticas de segurança nacional da OpenAI, afirmou que a empresa não acredita que deva ser a única a decidir sobre permissões de ferramentas e prioridades máximas.

Divergências entre os dois gigantes de IA na estratégia de defesa, democratização versus controle rigoroso

O modelo Mythos da Anthropic possui capacidade de identificar e explorar vulnerabilidades de software. Devido aos potenciais perigos, a empresa vem promovendo sua implementação de forma gradual, através de um plano de controle rigoroso chamado Glass Wing, em parceria com representantes do governo.

Na área de segurança, a Anthropic defende uma abordagem cautelosa e lenta, para reduzir o risco de hackers utilizarem IA para uma corrida armamentista, enquanto a OpenAI planeja uma abertura total dos modelos.

Baker afirmou que é necessário democratizar a defesa de rede para que todos possam se beneficiar, e que limitar a acesso apenas às 50 maiores empresas da revista Forbes não é suficiente. Ela destacou que essa é uma oportunidade para as empresas corrigirem vulnerabilidades antes que as ferramentas caiam em mãos mal-intencionadas.

Fonte da imagem: Getty Images/ANTHONY WALLACE/AFP Chefe de políticas de segurança nacional da OpenAI, Sasha Baker

OpenAI trabalha ativamente com os EUA, elaborando plano de ação para a era da inteligência

Recentemente, a OpenAI realizou um workshop em Washington, onde Baker revelou que os participantes incluíam representantes do Pentágono, do White House, do Departamento de Segurança Interna dos EUA e da DARPA, testando as capacidades de segurança do novo modelo, com previsão de retornar a Washington em algumas semanas para coletar feedback.

Além disso, a OpenAI está lançando um plano de ação para coordenar a defesa cibernética na era da inteligência, envolvendo governo e empresas. A empresa planeja, nos próximos dias, implementar novas funcionalidades de segurança na conta do ChatGPT e fornecer ferramentas para ajudar o público a melhorar seus hábitos de segurança na internet.

Demônio ou salvador? Gigantes de IA apostam na crise do apocalipse

No entanto, muitas empresas de IA frequentemente alertam sobre possíveis crises apocalípticas, o que tem gerado questionamentos na academia.

Em entrevista à BBC, a professora de ética da Universidade de Edimburgo, Shannon Vallor, afirmou que a estratégia de marketing de medo das empresas de IA já é eficaz, moldando seus produtos como a solução definitiva para o fim do mundo, sem prejudicar ou limitar seu poder. Isso faz com que o público passe a confiar apenas nessas empresas para proteção.

Ela disse que utopia e apocalipse são duas faces da mesma moeda: “Ambas as situações são tão grandiosas e cheias de mitologia que parecem impossíveis de serem reguladas, governadas ou controladas por mecanismos legais ou judiciais.”

Isso leva as pessoas a acreditarem que sua única ação é esperar e ver se essas tecnologias acabarão por destruir a civilização ou se nos trarão uma utopia salvadora. Até o nome “Mythos” (mito) parece ter sido pensado para evocar uma reverência quase religiosa.

Leitura adicional:
A era da IA exige novas políticas! OpenAI propõe 4 grandes iniciativas: semana de trabalho de três dias, imposto sobre robôs

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar