Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
AI Frankenstein ini Menggabungkan Claude Opus, GLM, dan Qwen—Dan Mengungguli Model Terbaik
Singkatnya
Kamu pikir Qwopus keren karena menggabungkan Qwen dan Opus? Nah, Kyle Hessling, seorang insinyur AI dengan banyak pengetahuan dan waktu luang, baru saja mengambil resep itu dan memasukkan GLM—salah satu model penalaran terbaik yang ada—ke dalam campuran. Hasilnya adalah sebuah frankenmerge dengan 18 miliar parameter yang cocok di GPU murah dan mengungguli model terbaru Alibaba 35B. Bagi yang belum tahu, parameter adalah nilai numerik yang tertanam dalam jaringan neural selama pelatihan, seperti dial yang dapat disesuaikan oleh jaringan neural — semakin banyak, semakin banyak pengetahuan dan kompleksitas yang dapat ditangani model, dan semakin banyak memori yang dibutuhkan untuk menjalankan. Hessling, seorang insinyur infrastruktur AI, menumpuk dua finetune Qwen3.5 dari Jackrong secara bertumpuk: lapisan 0 hingga 31 dari Qwopus 3.5-9B-v3.5, yang mendistilasi gaya penalaran Claude 4.6 Opus ke dalam Qwen sebagai model dasar, dan lapisan 32 hingga 63 dari Qwen 3.5-9B-GLM5.1-Distill-v1, yang dilatih pada data penalaran dari model pengajar GLM-5.1 dari z.AI di atas dasar Qwen yang sama.
Hipotesisnya: Berikan model ini perencanaan terstruktur ala Opus di bagian awal penalaran dan kerangka dekomposisi masalah GLM di bagian kedua—total 64 lapisan, dalam satu model. Teknik ini disebut passthrough frankenmerge—tanpa pencampuran, tanpa rata-rata bobot, hanya tumpukan lapisan mentah. Hessling harus menulis skrip penggabungannya sendiri dari awal karena alat yang ada tidak mendukung arsitektur perhatian hybrid linear/full dari Qwen 3.5. Model yang dihasilkan melewati 40 dari 44 tes kemampuan, mengalahkan Qwen 3.6-35B-A3B MoE dari Alibaba—yang membutuhkan 22 GB VRAM—sementara berjalan hanya dengan 9,2 GB dalam kuantisasi Q4_K_M. NVIDIA RTX 3060 menangani ini dengan baik… secara teori.
Hessling menjelaskan bahwa membuat model ini tidak mudah. Penggabungan mentah dulu sering menyebabkan kode berantakan. Tapi meskipun begitu, model uji yang dia terbitkan menjadi viral di kalangan penggemar. Perbaikan terakhir Hessling adalah “heal fine-tune”—pada dasarnya sebuah QLoRA (sepotong kode yang disisipkan ke dalam model seperti lampiran dan sangat mempengaruhi output akhir )yang menargetkan semua perhatian dan proyeksi. Kami mencobanya, dan meskipun gagasan menjalankan Qwen, Claude Opus, dan GLM 5.1 secara lokal di perangkat sederhana sangat menggoda, kenyataannya kami menemukan bahwa model ini sangat hebat dalam penalaran sehingga cenderung overthinking. Saat diuji di MacBook M1 yang menjalankan versi kuantisasi MLX (sebuah model yang dioptimalkan untuk Mac). Ketika diminta menghasilkan permainan uji biasa kami, rantai penalaran berjalan begitu panjang hingga mencapai batas token dan memberi kami bagian penalaran yang panjang tanpa hasil yang berfungsi dalam interaksi nol tembakan. Itu menjadi penghalang harian bagi siapa saja yang ingin menjalankan ini secara lokal di perangkat konsumen untuk aplikasi serius. Kami mengurangi sedikit beban dan tetap mengalami tantangan. Prompt sederhana “tulis permainan Snake” memakan waktu lebih dari 40 menit dalam penalaran… sebagian besar.
Kamu bisa melihat hasilnya di repositori Github kami. Ini adalah ketegangan yang dikenal dalam garis keturunan Qwopus: finetune v2 dari Jackrong dibuat untuk mengatasi kecenderungan Qwen 3.5 terhadap loop internal berulang dan “berpikir lebih ekonomis.” Menumpuk 64 lapisan dari dua distilasi penalaran tampaknya memperkuat perilaku tersebut pada prompt tertentu.
Itu adalah masalah yang dapat dipecahkan, dan komunitas sumber terbuka kemungkinan akan menyelesaikannya. Yang penting di sini adalah pola yang lebih luas: pengembang pseudonim menerbitkan finetune khusus lengkap dengan panduan pelatihan, penggemar lain menumpuknya dengan skrip kustom, menjalankan 1.000 langkah penyembuhan, dan mendapatkan model yang mengungguli rilis dengan 35 miliar parameter dari salah satu laboratorium AI terbesar di dunia. Seluruhnya muat dalam satu file kecil. Inilah yang membuat sumber terbuka patut diperhatikan—bukan hanya lab besar yang merilis bobot, tetapi solusi lapis demi lapis, spesialisasi yang terjadi di bawah radar. Celah antara proyek akhir pekan dan penerapan frontier semakin sempit semakin banyak pengembang bergabung dengan komunitas. Sejak itu, Jackrong telah menyalin repositori Hessling, dan model ini telah diunduh lebih dari tiga ribu kali dalam dua minggu pertama ketersediaannya.