Dados revelam que “Claude perdeu capacidade” não é apenas um boato, e que modelos de IA instáveis representam risco empresarial

ChainNewsAbmedia

Depois que a IA se tornou uma ferramenta padrão nas empresas, um fenômeno que antes era visto como “um problema de percepção corporal” está rapidamente vindo à tona: os LLMs (modelos de linguagem de grande porte) estão ficando “mais burros”. O internauta Wisely Chen apontou que, o que se chama de “LLM perdendo a inteligência” não é apenas uma lenda urbana; já é algo que pode ser acompanhado continuamente por meio de dados e que está causando impactos reais nos fluxos de trabalho corporativos.

Ele usou sua própria experiência como exemplo: em 15 de abril, o serviço da linha Claude, da Anthropic, passou por um rebaixamento geral, incluindo claude.ai, API e Claude Code, que exibiram “Degraded Performance”. Isso não é apenas uma simples lentidão ou um erro ocasional; a qualidade das respostas desabou de forma evidente, chegando a haver situações em que não era possível usar corretamente, o que fez com que seus três projetos de desenvolvimento do dia inteiro fossem adiados.

Esse tipo de cenário talvez seja apenas uma queda de eficiência para desenvolvedores individuais, mas para equipes de TI de empresas o impacto é multiplicado. Quando uma equipe tem vários engenheiros dependendo ao mesmo tempo de ferramentas de IA para coding, escrita de documentos e automação de processos, uma queda do modelo em um único momento significa que a produtividade geral despenca coletivamente no mesmo período, o que então se converte em perdas consideráveis de tempo e custos.

A IA parece ter ficado mais burra? Dados confirmam que “já houve rebaixamento”

Wisely Chen apontou que “o GPT ficou mais burro”, “o Claude não é mais como antes” e outras afirmações que circulam na comunidade existem há muito tempo, mas por muito tempo faltou apoio de dados objetivos. Só até recentemente, com o surgimento de plataformas de monitoramento contínuo da qualidade do modelo, é que esse fenômeno passou a ser quantificado pela primeira vez.

Nesse contexto, o StupidMeter realiza testes automatizados de 24 horas em modelos populares, incluindo OpenAI, Anthropic, Google e outros, acompanhando indicadores como exatidão, capacidade de raciocínio e estabilidade. Diferentemente de um benchmark tradicional feito uma única vez, esse tipo de sistema se aproxima mais da forma como empresas monitoram APIs ou a disponibilidade de serviços, observando as variações de desempenho do modelo em ambientes reais de uso.

Os resultados dos dados são bastante intuitivos: atualmente, a maioria dos modelos populares está em estado de alerta ou rebaixamento, e apenas alguns modelos mantêm o funcionamento normal. Isso significa que a qualidade do modelo é instável; não se trata de um problema de um único produto, mas de um fenômeno comum na indústria como um todo.

LLM faz downgrade de inteligência “por baixo do radar”, afetando a estabilidade das empresas nos fluxos de trabalho de IA

Para as empresas, essa mudança representa que a IA deixou de ser “uma ferramenta para aumentar a eficiência” e passou a ser “um fator que afeta a estabilidade”. Se o fluxo de trabalho diário de uma empresa — da programação ao code review, até a produção de documentos e relatórios de análise — já depende altamente de LLMs, então, quando o modelo apresentar queda de capacidade de raciocínio ou piora na qualidade das respostas em um dia, esses problemas não ocorrerão apenas localmente como um bug de software tradicional; eles vão se infiltrar ao mesmo tempo em todas as etapas em que se usa IA.

O mais importante é que essas oscilações muitas vezes são difíceis de prever e difíceis de perceber em tempo real. A maioria das empresas não possui mecanismos para monitorar continuamente a qualidade dos modelos; normalmente, só percebe-se o problema depois que os resultados ficam anormais ou depois que a eficiência da equipe cai, identificando então que a origem está no próprio modelo. Nesse cenário, “perder a inteligência” deixa de ser apenas uma percepção subjetiva dos usuários e passa a ser um risco sistêmico que afeta diretamente o ritmo da operação da empresa.

Quando a IA vira água e luz, a estabilidade se torna o novo indicador-chave

Wisely Chen compara o papel dos LLMs a “água e luz da empresa moderna”. Quando a IA já está profundamente integrada à operação diária, se tornando uma capacidade básica indispensável, a importância de sua estabilidade também aumenta.

No passado, ao avaliar ferramentas de IA, as empresas se concentravam principalmente na capacidade do modelo, no preço e nas funcionalidades; mas, com o surgimento do fenômeno de “perda de inteligência”, outro indicador ainda mais crucial passou a emergir: a estabilidade. Quando a qualidade do modelo pode variar sem aviso, as empresas deixam de apenas “usar IA” e precisam começar a assumir um tipo novo de risco de infraestrutura. E o mais desesperador é que, se você olhar apenas para os grandes modelos de linguagem mais avançados, basicamente, enquanto o problema de capacidade de computação não for resolvido, isso provavelmente continuará acontecendo.

Este artigo “Dados revelam que o ‘Claude’ perdeu inteligência e não é lenda urbana; modelos de IA instáveis viram risco para empresas” foi publicado pela primeira vez em 鏈新聞 ABMedia.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Bundesbank Warns Anthropic's Mythos Model Could Expose Weak Spots in European Banking Systems

Gate News message, April 21 — Germany's Bundesbank President Joachim Nagel warned on Tuesday that Anthropic's Mythos AI model poses significant cybersecurity risks to European financial institutions and called for broader access to the technology. Nagel, also a member of the European Central Bank

GateNews5m atrás

As exportações de semicondutores da Coreia do Sul disparam 182,5% no início de abril com a demanda por chips de IA

A demanda por IA impulsionou as exportações e os lucros de semicondutores da Coreia para Samsung e SK hynix; as remessas para a China e os EUA aumentaram. Ainda assim, os riscos de políticas dos EUA com tarifas pairam sobre o cenário, apesar de um nível recorde de 2025. Resumo: O artigo informa que as exportações de semicondutores da Coreia do Sul dispararam no início de abril, impulsionadas por uma demanda relacionada à IA que aumentou as remessas e os lucros dos chips de memória para a Samsung Electronics e a SK hynix. As exportações subiram para US$18,3 bilhões em 1º–20 de abril, com as exportações totais crescendo 49,4% para US$50,4 bilhões e um superávit comercial de US$10,4 bilhões. A China e os Estados Unidos foram os principais mercados de crescimento, e as exportações de semicondutores de 2025 atingiram um recorde de US$173,4 bilhões, acima de 20% ano a ano. No entanto, persistem incertezas de política: uma tarifa de 25% dos EUA sobre certos chips avançados de computação pode afetar o sentimento, com as exportações de chips de memória sendo excluídas, e tensões no Oriente Médio e políticas tarifárias mais amplas podem pesar sobre as perspectivas.

GateNews5m atrás

Economistas apontam oportunidades de emprego após a onda de desemprego da IA: o valor da escassez se volta para “serviços emocionais”

Imas apontou que a IA não vai substituir completamente a força humana, mas sim deslocar a escassez para uma economia com o foco em emoções e relacionamentos. O experimento do Starbucks revela as lacunas da automação, e a retenção de clientes depende da forma de atender e do ambiente. A transição de estruturas históricas e o fenômeno de Baumol mostram que a IA reduz os preços de bens padronizados; a escassez passa a depender de um alto valor percebido que exige interação interpessoal. O foco futuro está em serviços emocionais e em atividades como o artesanato, mas a distribuição global e a questão da renda básica ainda precisam ser resolvidas.

ChainNewsAbmedia12m atrás

Artefatos ao Vivo do Claude: Dashboard com conexão direta ao aplicativo para atualização automática em tempo real

De acordo com o anúncio oficial do X da Claude, a Anthropic lançou o recurso Live Artifacts no Cowork do aplicativo de desktop do Claude em 20 de abril, permitindo que gráficos, dashboards e rastreadores gerados por IA se conectem diretamente aos aplicativos e arquivos do usuário e atualizem automaticamente com os dados mais recentes quando abertos. O Live Artifacts está disponível para todos os usuários do Cowork nos planos pagos do Claude (Pro, Max, Team, Enterprise). Recursos principais do Live Artifacts: do output estático à integração em tempo real No passado, após a geração, os Artifacts do Claude ficavam desconectados da realidade — se o usuário quisesse atualizar os dados, só era possível colar os dados novamente e pedir ao Claude para regenerar uma nova versão. L

ChainNewsAbmedia32m atrás

Startup sul-coreana de armazenamento de IA Dnotitia levanta US$ 61,2 milhões na rodada Série A

Mensagem do Gate News, 21 de abril — A startup sul-coreana de armazenamento de IA, Dnotitia, levantou 90 bilhões de won (US$61,2 milhões) em uma rodada de financiamento Série A liderada pela Elohim Partners. Kiwoom Investment e Shinhan Venture Investment também participaram da rodada. Os principais produtos da Dnotitia são o banco de dados vetorial Seahorse

GateNews35m atrás

O fundador da Pi Network em 7 de maio discutiu a identificação da identidade humana na era da IA no Consensus 2026

O fundador da Pi Network, Nicolas Kokkalis, participará no dia 7 de maio da conferência Consensus 2026, em Miami, juntando-se a um painel de especialistas que discutirá o tema de identificação humana on-line na era da inteligência artificial (IA). De acordo com a programação oficial do evento, esta discussão em painel reunirá especialistas nas áreas de identidade, privacidade e confiança digital.

MarketWhisper1h atrás
Comentário
0/400
Sem comentários