Resultados da pesquisa de "GPT"
2026-04-02
02:29

A Gate retirou 29 mercados de negociação de tokens e já efetuou a recompra junto de utilizadores elegíveis.

Notícias do Gate, de acordo com o anúncio oficial da Gate A Gate removeu dos mercados de negociação os 29 tokens POWERLOOM, ZAP, NVIR, PBX, MNRY, HAT, EARNM, VICE, FST, LBLOCK, ELIX, ELIZA, GET, VIA, SGC, SKAI, 1, GPT, DPET, EQ, EMPIRE, ELDE, CNNS, MYTH, HARD, TROY, MICHI, OVPP, ROOST e outros. Após uma nova avaliação por parte da plataforma, estes tokens não cumprem os critérios para a abertura de negociação. Para os utilizadores que já submeteram formulários e que cumprem os requisitos, a Gate depositou o montante de recompra na sua conta. Após a deslistagem, os utilizadores ainda podem continuar a usar a carteira da Gate para armazenar ativos; o calendário específico de deslistagem das funcionalidades da carteira e os pormenores das operações serão comunicados posteriormente.
Mais
10:00

A bolsa de negociação de 29 tokens, incluindo POWERLOOM e ZAP, foi removida na Gate; foi efetuada a recompra para os utilizadores elegíveis.

Gate News 消age, segundo o anúncio oficial da Gate, a Gate retirou da listagem os mercados de negociação de 29 tokens, incluindo POWERLOOM, ZAP, NVIR, PBX, MNRY, HAT, EARNM, VICE, FST, LBLOCK, ELIX, ELIZA, GET, VIA, SGC, SKAI, 1, GPT, DPET, EQ, EMPIRE, ELDE, CNNS, MYTH, HARD, TROY, MICHI, OVPP, ROOST. Após avaliação, os tokens acima não cumprem os critérios para a abertura de negociação. A Gate procedeu ao recompra dos utilizadores que detêm estes tokens; para os utilizadores que cumprem os requisitos, o montante da recompra foi depositado na sua conta Gate. Após a retirada, os utilizadores ainda podem continuar a utilizar a Gate para armazenamento de ativos como carteira para as moedas acima referidas. O momento específico de retirada das funcionalidades da carteira e os detalhes de operação serão notificados posteriormente através de um anúncio oficial.
Mais
05:07

20B pequeno modelo de busca alcança a capacidade do GPT-5 e Opus: modelo de busca Agent Context-1 da base de dados vetorial Chroma open source.

O banco de dados vetorial de código aberto Chroma lançou o Context-1, um modelo de busca de agentes com 20 mil milhões de parâmetros para pesquisa de múltiplas rodadas. Este modelo utiliza a tecnologia de contexto auto-editável e é treinado em múltiplas tarefas através de aprendizado por reforço e mecanismos de currículo, apresentando um desempenho excecional, especialmente nas áreas de web, finanças e direito, e demonstrando também capacidades de pesquisa interdisciplinares no campo dos e-mails.
Mais
04:22

A inteligência incorporada está no seu «momento GPT»? A Axis Robotics anuncia o fim dos testes e o lançamento iminente na cadeia Base

> Fonte do artigo: Axis Axis Robotics está a reconstruir a diversidade de dados e a escalabilidade de produção da inteligência incorporada através de uma estratégia Simulation-First (orientada pela simulação). Em 2025, múltiplos caminhos tecnológicos na indústria robótica estão a convergir rapidamente: a atualização comercial das cadeias de fornecimento de hardware incorporado permitiu pela primeira vez que protótipos anteriormente caros tivessem possibilidades reais de implementação em escala; modelos Vision-Language-Action (VLA) proporcionam aos robôs um "cérebro" capaz de compreender semântica, raciocínio e planeamento; enquanto a pirâmide de dados multicamadas, que vai desde os antecedentes visuais até à síntese de simulação, continua a fornecer combustível ininterrupto para a evolução contínua da inteligência incorporada. No entanto, a indústria ainda enfrenta um estrangulamento essencial: os dados. Comparativamente aos modelos de linguagem grande e à condução autónoma, a inteligência incorporada ainda apresenta um défice massivo de dados na fase de pré-treinamento.
Mais
01:39

Ferramenta de programação IA Cursor lança modelo Composer 2, desempenho superior ao Opus 4.6, preço reduzido para 14% da geração anterior

A Cursor lançou a 3ª geração do modelo de programação Composer 2 em 20 de março, com preços significativamente reduzidos para 0,50 dólares por milhão de tokens de entrada e 2,50 dólares de saída, enquanto introduziu uma versão rápida. O Composer 2 superou a geração anterior em múltiplos testes de referência, mas ficou abaixo do GPT-5.4, com melhorias principalmente provenientes de pré-treinamento contínuo do modelo base e aprendizado por reforço. O modelo é exclusivo para uso interno da Cursor, e a empresa-mãe Anysphere tem uma avaliação de 29,3 mil milhões de dólares.
Mais
00:02

OpenAI lança GPT-5.4 mini e nano, preços até 4 vezes superiores à geração anterior

A OpenAI lançou a 18 de março os novos modelos GPT-5.4 mini e GPT-5.4 nano, orientados para cenários multimodais e de programação, com preços significativamente mais elevados. O GPT-5.4 mini apresenta desempenho superior nos testes de referência de programação, suporta contexto em larga escala e operações multifuncionais. Além disso, os utilizadores da versão gratuita do chatGPT também terão acesso às novas funcionalidades de raciocínio.
Mais
15:32

Grupo Rakuten lança grande modelo de linguagem Rakuten AI 3.0 em japonês; gerou controvérsia por suspeita de ser baseado na arquitetura DeepSeek

O Grupo Rakuten lançou no dia 17 de março o grande modelo linguístico especializado em japonês Rakuten AI 3.0, afirmando que superou o GPT-4o em vários testes de linguagem japonesa. No entanto, utilizadores descobriram que o modelo pode ter sido desenvolvido com base na DeepSeek, e questionaram a sua inclinação favorável à China e a autenticidade da sua tecnologia de investigação e desenvolvimento independente, o que desencadeou debate.
Mais
08:53

Rakuten lança modelo Rakuten AI 3.0, ficheiros de configuração revelam arquitetura subjacente como DeepSeek V3

O grupo Rakuten lançou em 17 de março um modelo de IA de alto desempenho chamado Rakuten AI 3.0, com 671 bilhões de parâmetros, otimizado para o língua japonesa, afirmando superar o GPT-4o em várias provas de referência. O modelo é disponibilizado gratuitamente como código aberto sob a licença Apache 2.0, baseado no ajuste do modelo DeepSeek V3, e contou com o suporte de capacidade computacional de treinamento do governo japonês.
Mais