*Dados atualizados pela última vez: 2026-04-17 11:37 (UTC+8)
Em 2026-04-17 11:37, Anthropic (ANTHROPIC) está cotada a R$0, com um valor de mercado total de --, índice P/L de 0,00 e rendimento de dividendos de 0,00%. Hoje, o preço das ações variou entre R$0 e R$0. O preço atual está 0,00% acima da mínima do dia e 0,00% abaixo da máxima do dia, com um volume de negociação de --. Nas últimas 52 semanas, ANTHROPIC foi negociada entre R$0 e R$0, e o preço atual está 0,00% distante da máxima das 52 semanas.
Principais estatísticas de ANTHROPIC
Saiba mais sobre Anthropic (ANTHROPIC)
Artigos do Gate Learn
As 72 horas da crise de identidade da Anthropic
Em apenas setenta e duas horas, a Anthropic viu-se confrontada com um ultimato do Pentágono, acusações públicas de Elon Musk e a retirada dos seus próprios compromissos de segurança. Da recusa em criar armas militares autónomas à revisão do RSP 3.0 e ao abandono da linha vermelha "pause training", esta empresa—reconhecida como líder em "IA segura"—enfrenta agora um crescente desfasamento entre a sua imagem e a realidade operacional. Este artigo explora as dinâmicas políticas, as pressões de valorização e o desmoronar do prémio narrativo de segurança que alimentam esta crise de identidade.
2026-03-05
Anthropic "Corta" Windsurf, Programação de IA Torna-se "Guerra por Procuração" Entre Gigantes da IA
A aquisição da plataforma de programação de IA Windsurf pela OpenAI causou alvoroço na indústria, enquanto a cessação do fornecimento do modelo Claude pela Anthropic à Windsurf intensificou ainda mais a concorrência no mercado.
2025-06-11
Fuga do código-fonte do Claude Code: Profunda análise da indústria—A visão da Anthropic ultrapassa largamente o conceito de um mero assistente de programação IA
O incidente de fuga do código-fonte do Claude Code evidencia algo mais do que um erro técnico isolado—revela antecipadamente a estratégia de produto da Anthropic, assente em operações em segundo plano, execução automatizada, colaboração multiagente e automatização de permissões. Este artigo analisa, numa ótica profissional, os caminhos prováveis que a Anthropic poderá trilhar com o Claude Code.
2026-04-02Blogs
Quantos modelos de linguagem de grande escala de IA foram integrados pelo GateRouter? Dados mais recentes de abril de 2026
A partir de 7 de abril de 2026, o GateRouter integrou-se oficialmente com mais de 20 modelos de IA de referência, abrangendo os principais fornecedores globais de IA, como OpenAI, Anthropic, Google, xAI e DeepSeek.
2026-04-07
Desvendar o Debate sobre Ética e Soberania na IA: Perspetivas do Setor por Detrás da Recusa da Anthropic ao Departamento de Defesa
A Anthropic, uma empresa de inteligência artificial, optou por abdicar de um contrato no valor de 200 milhões $ em vez de permitir ao Departamento de Defesa dos EUA acesso irrestrito aos seus modelos.
2026-02-28
Perguntas Frequentes sobre Anthropic (ANTHROPIC)
Qual é o preço das ações de Anthropic (ANTHROPIC) hoje?
Quais são os preços máximo e mínimo em 52 semanas de Anthropic (ANTHROPIC)?
Qual é o índice preço/lucro (P/L) de Anthropic (ANTHROPIC)? O que esse indicador revela?
Qual é o valor de mercado da Anthropic (ANTHROPIC)?
Qual é o lucro por ação (EPS) trimestral mais recente de Anthropic (ANTHROPIC)?
Você deve comprar ou vender Anthropic (ANTHROPIC) agora?
Quais fatores podem afetar o preço das ações da Anthropic (ANTHROPIC)?
Como comprar ações da Anthropic (ANTHROPIC)?
Aviso de risco
Isenção de responsabilidade
Outros mercados de negociação
Anthropic (ANTHROPIC) Últimas Notícias
A Sequoia Capital angaria $7 mil milhões para um novo fundo liderado por Alfred Lin e Pat Grady
Mensagem da Gate News, 17 de abril — A Sequoia Capital angariou aproximadamente $7 mil milhões para um novo fundo sob a co-gestão de Alfred Lin e Pat Grady, assinalando o primeiro grande levantamento de fundos da firma sob a sua liderança. O capital destina-se a apoiar grandes empresas privadas, particularmente startups de IA, incluindo a OpenAI e a Anthropic, que exigem avultados gastos em infraestruturas de computação. O fundo de $7 mil milhões tem cerca do dobro do tamanho do fundo de 3,4 mil milhões de dólares que a Sequoia levantou em 2022, proporcionando significativamente mais capital para alocar no sector de IA intensivo em capital. Este levantamento de fundos reflecte uma mudança estratégica na Sequoia. A firma historicamente evitou financiar concorrentes directos dentro da mesma categoria — em 2020, abdicou de um investimento de $21 milhões na empresa de pagamentos Finix para evitar conflitos com a empresa da carteira Stripe. Hoje, a Sequoia detém participações em empresas concorrentes de IA, incluindo a OpenAI e a xAI (, empreendimento de IA de Elon Musk), sinalizando uma nova abordagem à construção da carteira na era da IA.
2026-04-17 01:13A Anthropic lança o Claude Opus 4.7 com salvaguardas de cibersegurança
Mensagem da Gate News, 17 de abril — A Anthropic anunciou o Claude Opus 4.7, um modelo de IA com salvaguardas concebidas para bloquear pedidos de cibersegurança de alto risco. O lançamento baseia-se no Claude Opus 4.6, apresentado em fevereiro, e precede uma implementação mais ampla dos modelos mais avançados da classe Mythos da Anthropic. O Mythos Preview, apresentado no início deste mês, continua a ser mais capaz do que o Opus 4.7, mas está atualmente disponível apenas para um conjunto limitado de empresas através do Project Glasswing, o programa de cibersegurança da Anthropic. O Opus 4.7 proporciona melhorias significativas nos fluxos de trabalho agentic e nas capacidades de visão. O desempenho na codificação autónoma subiu para 64.3% no SWE-bench Pro, um benchmark amplamente utilizado para tarefas de engenharia de software, face aos 53.4% da versão anterior. O tratamento de imagens passa a suportar mais do que o triplo da resolução, com a precisão da acuidade visual a melhorar de 54.5% para 98.5% em testes standard. Foram implementadas limitações intencionais de cibersegurança durante o treino; no CyberGym, um benchmark de desempenho em cibersegurança, o Opus 4.7 obteve 73.1%, abaixo dos 83.1% do Mythos Preview. A Anthropic restringiu o Mythos Preview na sequência de testes pré-lançamento que revelaram milhares de vulnerabilidades de alta criticidade, incluindo uma falha no OpenBSD não detetada durante 27 anos. Investigadores de segurança a conduzir investigação de vulnerabilidades, testes de penetração ou exercícios de red-team podem candidatar-se ao Programa de Verificação Cibernética da Anthropic para obter acesso defensivo sem recusa predefinida. O feedback das salvaguardas do Opus 4.7 irá informar futuros lançamentos de modelos.
2026-04-17 00:52Associação da Indústria de Valores Mobiliários alerta que a IA Mythos representa risco para a base de dados de acompanhamento do mercado da SEC
Mensagem da Gate News, 17 de abril — A (SIFMA), Securities Industry and Financial Markets Association, enviou ontem uma carta ao Secretário do Tesouro dos EUA, Bessent (16 de abril), instando à tomada de medidas para proteger os investidores americanos dos riscos de cibersegurança colocados pelo modelo de inteligência artificial Mythos da Anthropic para o sistema do Consolidated Audit Trail (CAT) da Securities and Exchange Commission. A SIFMA afirmou que o Mythos poderia permitir que maus agentes atacassem a base de dados do CAT, potencialmente facilitando o roubo de identidade em larga escala, expondo carteiras individuais de negociação e amplificando riscos financeiros sistémicos. A associação apelou a Bessent para que suspendesse imediatamente a recolha, na base de dados, da informação de identificação pessoal de traders de retalho e exigiu a destruição dos dados de negociação pessoais já recolhidos pelo CAT. O sistema CAT tem sido utilizado pela SEC para vigilância do mercado e para a investigação de atividades de negociação suspeitas.
2026-04-17 00:22Governo dos EUA prepara-se para disponibilizar o modelo de IA Mythos da Anthropic a agências federais
Mensagem da Gate News, 17 de abril — O governo dos EUA está a preparar-se para tornar o modelo de IA Mythos da Anthropic disponível para as principais agências federais, de acordo com um memorando analisado pela Bloomberg News. Gregory Barbaccia, o diretor de informação federal do White House Office of Management and Budget, informou os responsáveis dos ministérios do Gabinete a 14 de abril que a OMB está a preparar proteções para permitir que as agências comecem a utilizar a ferramenta de IA cuidadosamente guardada. A medida surge num contexto de preocupações de que a Mythos possa aumentar de forma acentuada o risco de cibersegurança caso seja utilizada de forma inadequada. A Anthropic limitou o lançamento do modelo a um grupo selecionado de empresas de tecnologia e instituições financeiras, instando-as a avaliarem as suas vulnerabilidades de cibersegurança. O Departamento do Tesouro tem procurado acesso à Mythos para detetar falhas de software nos seus próprios sistemas. No dia em que a Anthropic divulgou publicamente a existência da Mythos, o secretário do Tesouro, Scott Bessent, e a presidente do Sistema da Reserva Federal, Jerome Powell, reuniram-se com líderes de Wall Street para incentivá-los a utilizar o modelo para testes de cibersegurança. A iniciativa sinaliza o interesse contínuo do governo na Anthropic apesar de tensões anteriores. O Pentágono declarou a Anthropic uma ameaça à cadeia de abastecimento em 2024 devido a disputas sobre salvaguardas de IA, mas a Anthropic obteve em março uma ordem judicial que bloqueia uma proibição do uso governamental da sua tecnologia. Barbaccia escreveu no e-mail que o governo está a "trabalhar em estreita colaboração com fornecedores do modelo, outros parceiros da indústria e a comunidade de inteligência para garantir que estão em vigor as diretrizes e salvaguardas apropriadas" antes de, potencialmente, libertar uma versão modificada às agências.
2026-04-16 04:31A equipa da OpenAI, Anthropic e Google une-se para combater a destilação de modelos de IA por concorrentes chineses
Mensagem de notícias da Gate, 16 de abril — A OpenAI, a Anthropic e a (subsidiária da Alphabet) da Google iniciaram uma colaboração para contrariar os esforços de concorrentes chineses para extrair resultados de modelos avançados de IA dos EUA, a fim de melhorar as suas próprias capacidades, segundo a Bloomberg. As três empresas estão a partilhar informação através do Frontier Model Forum, uma organização do setor sem fins lucrativos cofundada pela OpenAI, Anthropic, Google e Microsoft em 2023. A iniciativa tem como objetivo identificar tentativas de destilação de dados adversariais que violem os termos de serviço. A destilação de dados refere-se a técnicas utilizadas para replicar o desempenho de modelos avançados de IA através da análise dos seus resultados, permitindo que os concorrentes desenvolvam sistemas comparáveis sem acesso direto à tecnologia proprietária.





































































































































































































































































