Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Qwen3.6-27B lançamento de código aberto "Openclaw, Hermes preferidos": desempenho de IA iguala Claude Opus 4.5, custo reduzido em 14 vezes
A série Qwen de Alibaba (Qwen) mais recente, Qwen3.6-27B, foi oficialmente open source na noite de 22 de abril de 2026. Este modelo denso de 27B foi avaliado no Terminal-Bench 2.0 com uma pontuação de 59.3, superando Claude 4.5 Opus, e com menos de 1/14 do número de parâmetros, na SWE-bench Verified obteve 77.2, superando a geração anterior de 397B MoE, que tinha 76.2. O modelo completo, de 55.6 GB, com quantização Q4_K_M reduzida para 16.8 GB, pode rodar em hardware de consumo, permitindo que frameworks de agentes locais como OpenClaw e Hermes Agent tenham, pela primeira vez, um cérebro local realmente utilizável.
(Prévia: sendo banido pela Anthropic, OpenClaw recomenda aos usuários usar API Key ou trocar para Qwen, Kimi e outros substitutos)
(Complemento: por que os EUA precisam de “censura” e confinamento em laboratórios para IA? Enquanto a China aposta fortemente em modelos de código aberto, por quê?)
Índice do artigo
Alternar
Na noite de 22 de abril de 2026, a equipe Qwen da Alibaba silenciosamente lançou uma bomba no Hugging Face: Qwen3.6-27B foi oficialmente open source, sob licença Apache 2.0, permitindo uso comercial livre. Os números parecem comuns, mas seu significado é extraordinário — a arquitetura densa de 27B (não MoE), pela primeira vez, igualou o desempenho do agente terminal ao flagship fechado da Anthropic, Claude 4.5 Opus, e com apenas 55.6 GB de tamanho, derrotou a geração anterior de 397B MoE, que exigia 807 GB de memória de vídeo para rodar completamente. Implantação local, agentes funcionais, hardware de consumo — Qwen3.6-27B atende a todos esses critérios.
Resultados de Benchmark: três conclusões mais impressionantes
A equipe Qwen escolheu 10 testes que refletem a capacidade real de programação de agentes, e os resultados de Qwen3.6-27B são os seguintes:
Três conclusões principais merecem destaque: Primeiro, Terminal-Bench 2.0 59.3 iguala Claude 4.5 Opus — esta é a primeira vez que um modelo denso de 27B alcança o mesmo desempenho do flagship fechado da Anthropic em tarefas de agente terminal, enquanto a versão anterior de Qwen3.5-27B tinha apenas 41.6, uma melhora de 17.7 pontos. Segundo, SWE-bench Verified 77.2 supera Qwen3.5-397B-A17B, com 76.2 — o modelo denso de 27B supera o flagship anterior de 397B MoE, com tamanho de arquivo reduzido de 807 GB para 55.6 GB, uma redução de mais de 14 vezes. Terceiro, SkillsBench de 27.2 sobe para 48.2 (+77%) e Claw-Eval Pass^3 atinge 60.6, superando Claude 4.5 Opus com 59.6 — a maior melhoria foi na consistência em múltiplas rodadas e passos, indicando que o modelo consegue executar tarefas complexas de agente sem falhas ou desvios frequentes.
No campo de conhecimento e raciocínio, também impressiona: MMLU-Pro 86.2, MMLU-Redux 93.5, GPQA Diamond 87.8, AIME 2026 94.1, LiveCodeBench v6 83.9, todos superando as gerações anteriores com a mesma quantidade de parâmetros.
Especificações: desempenho de centenas de bilhões de parâmetros em hardware de consumo
Qwen3.6-27B é uma arquitetura totalmente densa, com 27B de parâmetros, não MoE, sendo os parâmetros ativos que ativam a cada inferência, não apenas uma média. O comprimento de contexto nativo é 262.144 tokens, podendo ser expandido até 1.010.000 tokens (cerca de 1 milhão) com o plugin YaRN, ideal para análise de arquivos longos ou compreensão de múltiplos repositórios. O modelo de precisão total tem 55.6 GB, e com quantização Q4_K_M, seu tamanho é reduzido para 16.8 GB, podendo ser carregado diretamente em Macs com 24 GB de VRAM ou GPUs de consumo. Licenciado sob Apache 2.0, uso comercial é livre de taxas adicionais. Recomenda-se SGLang ≥0.5.10 ou vLLM ≥0.19.0 para implantação, além de suporte a KTransformers e HF Transformers. Além disso, Qwen3.6-27B integra um codificador de visão, suportando simultaneamente compreensão de imagens, textos e vídeos, não sendo um modelo puramente textual.
Por que o cérebro local do OpenClaw e Hermes Agent é importante?
O comunicado original destacou dois frameworks de agentes: OpenClaw e Hermes Agent. OpenClaw, popular entre desenvolvedores, é um agente local semelhante ao Claude Code, que foi banido pela Anthropic em abril — após a Anthropic limitar contas por violação de termos, a equipe OpenClaw recomendou usar API Key ou migrar para modelos locais como Qwen e Kimi. A abertura de Qwen3.6-27B atende exatamente a essa necessidade de alternativa: rodar localmente, alcançar desempenho semelhante ao de Claude, sob licença Apache 2.0, e uso comercial gratuito.
Hermes Agent, liderado pela NousResearch, é um framework de agente open source que enfatiza um ciclo de autoaprendizado de habilidades — executar, avaliar, extrair, refinar, recuperar — permitindo que o agente aprenda e armazene técnicas na memória, para uso futuro. Em contraste com o OpenClaw, mais intuitivo, Hermes foca na evolução autônoma de longo prazo, suportando integrações com NousPortal, OpenRouter, NVIDIA NIM, LM Studio, Ollama, entre outros. O desafio comum é rodar um modelo realmente potente localmente. Qwen3.6-27B, com uma pontuação média de 72.4 no Claw-Eval e 60.6 no Pass^3, oferece uma opção viável para esses frameworks, rivalizando com Claude 4.5 Opus.
Código aberto vs fechado: a estratégia da Alibaba e o cenário geopolítico
A abertura de Qwen3.6-27B não é um evento isolado. Em 16 de abril, a Alibaba também open sourceou Qwen3.6-35B-A3B (arquitetura MoE, 35B de parâmetros, 3B ativos). A abertura do modelo denso de 27B complementa a estratégia de permitir implantação local completa, sem fragmentação MoE; enquanto Qwen3.6-Plus e Qwen3.5-Omni permanecem fechados, comercializados via API na nuvem. Uma estratégia de abrir para construir ecossistema e confiança, e fechar para monetizar flagships.
No cenário mais amplo, essa mudança reflete a reversão na corrida de código aberto em IA entre China e EUA. Relatórios recentes indicam que o Meta de Zuckerberg abandonou a estratégia de “open source IA” e passou a usar o Qwen da Alibaba para treinar a IA paga Avocado — enquanto gigantes americanos reduzem o open source, os fabricantes chineses apostam na abertura total. Essa dinâmica de reversão está se consolidando rapidamente. Para desenvolvedores e quem precisa de implantação local, a questão deixou de ser “devo ou não abrir o código” e passou a ser “qual modelo open source é suficiente”. Qwen3.6-27B oferece uma resposta bastante clara neste momento.