Hasil pencarian untuk "CODE"
2026-05-06
14:42
1

Sebuah CEX (exchange terpusat) meluncurkan fitur pembayaran dengan pemindaian kode, mendukung transaksi USDT secara offline

Sejauh ini, sebuah CEX terkemuka meluncurkan fitur pembayaran pindai-QR pada 6 Mei, di mana pengguna dapat memindai kode QR melalui aplikasi bursa tersebut dan langsung menggunakan USDT untuk berbelanja dengan pedagang offline. Fitur ini saat ini sudah tersedia di beberapa pasar di Asia Tenggara dan Amerika Latin, di mana pembayaran dengan QR Code banyak digunakan. Pengguna dapat mengatur kata sandi pembayaran; setelah memindai kode QR pedagang, transaksi dapat diselesaikan, sementara USDT akan secara otomatis dikonversi dan diselesaikan di belakang layar, tanpa perlu penarikan manual atau transfer bank.
Lainnya
00:57

Zhipu Z.ai Memperpanjang Promosi Kuota Tiga Kali Lipat Program Coding GLM hingga 30 Juni

Pesan Berita Gate, 28 April — Zhipu Z.ai mengumumkan perpanjangan promosi kuota tiga kali lipat Program Coding GLM dari tenggat awal 30 April menjadi 30 Juni, mencakup baik model GLM-5.1 maupun GLM-5-Turbo. Promosi ini tersedia pada Waktu Timur pukul 6:00 AM hingga 2:00 AM pada hari berikutnya. Program Coding GLM adalah layanan berlangganan untuk pengembang yang memungkinkan pengguna memanggil model GLM dalam alat pemrograman termasuk Claude Code, Cursor, dan OpenCode. Promosi kuota tiga kali lipat pertama kali diluncurkan pada 16 Maret dengan cakupan yang terbatas pada GLM-5-Turbo, kemudian diperluas untuk mencakup kedua model setelah rilis GLM-5.1.
Lainnya
05:17

GPT-5.5 Kembali ke Ujung Terdepan dalam Coding, Tapi OpenAI Mengganti Benchmark Setelah Kalah dari Opus 4.7

Berita Gate tanggal 27 April — SemiAnalysis, sebuah firma analisis semikonduktor dan AI, merilis benchmark perbandingan asisten coding yang mencakup GPT-5.5, Claude Opus 4.7, dan DeepSeek V4. Temuan utamanya: GPT-5.5 menandai kembalinya pertama OpenAI ke ujung terdepan dalam model coding dalam enam bulan, dengan insinyur SemiAnalysis kini bergantian antara Codex dan Claude Code setelah sebelumnya hampir sepenuhnya mengandalkan Claude. GPT-5.5 didasarkan pada pendekatan pra-pelatihan baru yang diberi kode "Spud" dan merupakan ekspansi pertama OpenAI dalam skala pra-pelatihan sejak GPT-4.5. Dalam pengujian praktis, muncul pembagian kerja yang jelas. Claude menangani perencanaan proyek baru dan penyiapan awal, sementara Codex unggul pada perbaikan bug yang membutuhkan penalaran intensif. Codex menunjukkan pemahaman yang lebih kuat tentang struktur data dan penalaran logis, tetapi kesulitan menyimpulkan maksud pengguna yang ambigu. Pada satu tugas di satu dasbor, Claude secara otomatis meniru tata letak halaman referensi tetapi memalsukan dalam jumlah besar data, sedangkan Codex melewatkan tata letak tetapi menyajikan data yang jauh lebih akurat. Analisis mengungkap detail manipulasi benchmark: posting blog OpenAI pada Februari mendorong industri untuk mengadopsi SWE-bench Pro sebagai standar baru untuk benchmark coding. Namun, pengumuman GPT-5.5 beralih ke benchmark baru yang disebut "Expert-SWE." Alasannya, yang terselip dalam catatan kecil, adalah bahwa GPT-5.5 disalip oleh Opus 4.7 pada SWE-bench Pro dan tertinggal jauh dari Mythos 77.8% yang belum dirilis Anthropic. Terkait Opus 4.7, Anthropic menerbitkan analisis pasca-kematian satu minggu setelah rilis, mengakui tiga bug dalam Claude Code yang bertahan selama beberapa minggu dari Maret hingga April, dan memengaruhi hampir semua pengguna. Beberapa insinyur sebelumnya telah melaporkan penurunan performa pada versi 4.6, tetapi diabaikan sebagai pengamatan subjektif. Selain itu, tokenizer baru Opus 4.7 meningkatkan penggunaan token hingga 35%, yang secara terbuka diakui Anthropic—secara efektif merupakan kenaikan harga yang tersembunyi. DeepSeek V4 dinilai sebagai "mampu menyamai laju dengan yang di garis depan tetapi tidak memimpin," dengan memposisikan dirinya sebagai alternatif berbiaya terendah di antara model sumber tertutup. Analisis juga mencatat bahwa "Claude terus mengungguli DeepSeek V4 Pro pada tugas penulisan bahasa Tionghoa dengan kesulitan tinggi," dengan komentar bahwa "Claude menang melawan model Tionghoa di bahasa aslinya." Artikel ini memperkenalkan konsep kunci: harga model harus dievaluasi berdasarkan "biaya per tugas" bukan "biaya per token." Harga GPT-5.5 dua kali lipat dari GPT-5.4 input $5, output per million tokens, tetapi ia menyelesaikan tugas yang sama dengan token yang lebih sedikit, sehingga biaya aktualnya tidak harus lebih tinggi. Data awal SemiAnalysis menunjukkan rasio input-ke-output Codex sebesar 80:1, lebih rendah daripada rasio Claude Code 100:1.
Lainnya
08:33

Anthropic Meluncurkan /ultrareview untuk Claude Code: Peninjauan Kode Berbasis Cloud Multi-Agen

Pesan dari Gate News, 23 April — Anthropic telah memperkenalkan /ultrareview (research preview), sebuah fitur peninjauan kode multi-agen berbasis cloud untuk Claude Code. Pengguna dapat mengetik /ultrareview di CLI untuk menjalankan sekelompok agen peninjau dalam sandbox jarak jauh yang bekerja secara paralel untuk memeriksa perbedaan (diff) antara cabang saat ini dan cabang default termasuk perubahan yang belum di-commit, atau meninjau langsung GitHub PR dengan memberikan nomor PR. Seluruh proses tidak memerlukan sumber daya lokal dan biasanya memakan waktu 5 hingga 10 menit, dengan hasil dikembalikan ke sesi sebagai notifikasi.
Lainnya