Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
AI Frankenstein này kết hợp Claude Opus, GLM và Qwen—Và vượt trội hơn các mô hình hàng đầu
Tóm tắt ngắn gọn
Bạn nghĩ rằng Qwopus thật ngầu vì nó hợp nhất Qwen và Opus? Chà, Kyle Hessling, một kỹ sư AI có nhiều kiến thức và thời gian rảnh, vừa lấy công thức đó và thêm GLM—một trong những mô hình suy luận tốt nhất—vào. Kết quả là một frankenmerge 18 tỷ tham số phù hợp với GPU rẻ tiền và vượt xa mô hình mới nhất 35B của Alibaba. Đối với những ai chưa biết, tham số là các giá trị số được nhúng vào trong mạng nơ-ron trong quá trình huấn luyện, giống như các nút điều chỉnh mà mạng nơ-ron có thể thay đổi — càng nhiều tham số, mô hình có thể xử lý nhiều kiến thức và độ phức tạp hơn, đồng thời cần nhiều bộ nhớ hơn để chạy. Hessling, một kỹ sư hạ tầng AI, đã xếp chồng hai bản tinh chỉnh Qwen3.5 của Jackrong: các lớp từ 0 đến 31 của Qwopus 3.5-9B-v3.5, giúp tinh giản phong cách suy luận của Claude 4.6 Opus vào Qwen như một mô hình nền, và các lớp từ 32 đến 63 của Qwen 3.5-9B-GLM5.1-Distill-v1, huấn luyện dựa trên dữ liệu suy luận từ mô hình giáo viên GLM-5.1 của z.AI trên nền Qwen cùng loại.
Giả thuyết: Cung cấp cho mô hình khả năng lập kế hoạch theo kiểu Opus trong nửa đầu của quá trình suy luận và khung phân tích vấn đề của GLM trong nửa sau—tổng cộng 64 lớp, trong một mô hình. Kỹ thuật này gọi là hợp nhất kiểu passthrough—không pha trộn, không trung bình trọng số, chỉ đơn thuần xếp chồng lớp thô. Hessling phải tự viết script hợp nhất của riêng mình từ đầu vì các công cụ hiện có không hỗ trợ kiến trúc chú ý lai tuyến tính/đầy đủ của Qwen 3.5. Mô hình sau khi hoàn thiện đã vượt qua 40 trong 44 bài kiểm tra khả năng, đánh bại Qwen 3.6-35B-A3B MoE của Alibaba—yêu cầu 22 GB VRAM—trong khi chỉ chạy với 9,2 GB trong định dạng Q4_K_M. Một card NVIDIA RTX 3060 xử lý tốt… về lý thuyết.
Hessling giải thích rằng việc tạo ra mô hình này không dễ dàng. Việc hợp nhất thô thường gây ra lỗi mã rối. Nhưng dù sao, các mô hình thử nghiệm mà anh đăng tải đã trở nên khá nổi bật trong cộng đồng yêu thích AI. Phần sửa cuối cùng của Hessling là một “hồi phục tinh chỉnh”—cơ bản là một đoạn mã QLoRA (như một phần phụ lồng vào mô hình như một phụ lục và điều kiện hóa mạnh mẽ đầu ra cuối cùng) nhằm mục tiêu tất cả các chú ý và dự đoán. Chúng tôi đã thử, và dù ý tưởng có Qwen, Claude Opus, và GLM 5.1 chạy cục bộ trong máy tính yếu của chúng tôi thật hấp dẫn, nhưng thực tế chúng tôi nhận thấy mô hình quá giỏi suy luận đến mức bị quá tải. Khi thử trên MacBook M1 chạy phiên bản đã được lượng tử hóa (một mô hình tối ưu để chạy trên Mac), khi được yêu cầu tạo ra trò chơi thử nghiệm thông thường, chuỗi suy luận dài đến mức chạm giới hạn token và đưa ra một đoạn lý luận dài mà không có kết quả hoạt động trong một tương tác không cần huấn luyện trước. Điều này là một rào cản hàng ngày cho bất kỳ ai muốn chạy mô hình này cục bộ trên phần cứng tiêu dùng cho các ứng dụng nghiêm trọng. Chúng tôi đã giảm nhẹ hơn một chút và mọi thứ vẫn còn thách thức. Một yêu cầu đơn giản “viết một trò chơi Snake” mất hơn 40 phút để suy luận… phần lớn trong đó.
Bạn có thể xem kết quả trong kho lưu trữ Github của chúng tôi. Đây là một mâu thuẫn đã biết trong dòng Qwopus: các bản tinh chỉnh v2 của Jackrong được xây dựng để giải quyết xu hướng lặp lại nội bộ và “suy nghĩ tiết kiệm hơn” của Qwen 3.5. Việc xếp chồng 64 lớp của hai bản tinh chỉnh suy luận dường như làm tăng hành vi đó trên một số lệnh.
Đây là một vấn đề có thể giải quyết, và cộng đồng mã nguồn mở có khả năng sẽ giải quyết nó. Điều quan trọng ở đây là mô hình rộng hơn: một nhà phát triển giấu tên công bố các bản tinh chỉnh chuyên biệt kèm hướng dẫn huấn luyện đầy đủ, một người yêu thích khác xếp chồng chúng bằng script tùy chỉnh, chạy 1.000 bước hồi phục, và tạo ra một mô hình vượt trội hơn một bản phát hành 35 tỷ tham số từ một trong những phòng lab AI lớn nhất thế giới. Toàn bộ đều nằm trong một tệp nhỏ. Điều này làm cho mã nguồn mở đáng để theo dõi—không chỉ các phòng lab lớn phát hành trọng số, mà còn các giải pháp từng lớp, sự chuyên môn hóa diễn ra âm thầm. Khoảng cách giữa một dự án cuối tuần và một triển khai tiên phong ngày càng thu hẹp khi nhiều nhà phát triển tham gia cộng đồng hơn. Kể từ đó, Jackrong đã sao chép lại kho lưu trữ của Hessling, và mô hình đã thu hút hơn ba nghìn lượt tải trong hai tuần đầu tiên ra mắt.