Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Claude sengaja menurunkan tingkat kecerdasannya, apakah model juga mulai "menyesuaikan diri dengan orang"?
null
Teks | Pabrik Model Dunia
Claude menurun tingkat kecerdasannya?
Baru-baru ini, Stella Laurenzo, Direktur Senior Grup AI AMD, melontarkan kritik terhadap Anthropic.
Dia menggunakan log produksi nyata timnya untuk melakukan analisis mundur terhadap 6.852 file percakapan yang berisi 17.871 blok pemikiran, 234.760 panggilan alat.
Data menunjukkan bahwa Claude mulai menunjukkan penurunan perilaku yang jelas sejak pertengahan Februari.
Median pemikiran Claude turun dari 2200 karakter menjadi 600 karakter, penurunan sebesar 67%-73%;
Jumlah bacaan file sebelum diedit dari 6,6 kali menyusut menjadi 2 kali, bahkan sepertiga dari modifikasi dilakukan tanpa membaca file sama sekali.
Stella dalam analisisnya menunjukkan bahwa karena penurunan kemampuan penalaran, model secara bertahap tidak lagi membaca kode secara lengkap sebelum mengubahnya.
Dia menulis, “Ketika aliran pemikiran dangkal, model akan secara default mengambil operasi dengan biaya terendah.”
Ini bukan kasus tunggal, sejak Maret, ketidakpuasan pengembang mulai memuncak.
Di X, ada pengguna yang menulis: “Saya kira beberapa minggu terakhir Claude adalah saya sendiri yang gila. Rasanya lebih lambat, lebih malas, seolah-olah tidak berpikir sebelum menjawab, jadi saya tidak berhalusinasi.”
Di Reddit juga ada pengguna yang mengeluh: “Claude terasa tidak lagi sadar, seperti telah dilakukan lobotomi. Selain menjadi lebih bodoh, dia juga mulai melakukan operasi ekstrem tanpa bertanya…”
Ada juga yang menyatakan ini adalah pengkhianatan terbuka dari Anthropic terhadap pengguna: “Mereka hanya membuat masalah ini tidak terlihat bagi semua pengguna, seolah-olah ‘kalau kamu tidak bisa mengukur aku, aku tidak akan memperlihatkannya’… Ini adalah akibat dari lab AI yang mengutamakan keuntungan daripada kualitas output.”
Dari keluhan pengguna hingga data yang membuktikan secara nyata, hampir dipastikan bahwa Claude mengalami penurunan kecerdasan.
Sementara tanggapan resmi dari Anthropic juga mengakui bahwa kedalaman dan usaha dalam pemikiran memang terus disesuaikan.
Jika ini memang disengaja oleh Anthropic, apakah berarti kemampuan model akan secara tidak sadar “mengecil” di masa depan?
Atau, kemampuan model terkuat tidak akan lagi diberikan secara setara kepada semua orang?
Claude menurunkan tingkat kecerdasan “dengan sengaja”
Claude Opus 4.6 dan mode khusus pengkodeannya Claude Code, saat diluncurkan pada Januari 2026, pernah dipuja pengembang sebagai puncak kemampuan pengkodean.
Kemampuannya dalam berfikir sangat mengesankan, research-first (penelitian dulu baru bertindak), pemrosesan konteks panjang stabil, refaktor multi-file hampir tak terkalahkan.
Tim internal AMD bahkan menggunakannya untuk menggabungkan 190.000 baris kode warisan secara penuh selama akhir pekan, meningkatkan produktivitas secara langsung.
Namun, perubahan terjadi pada awal Februari.
Anthropic secara diam-diam meluncurkan fitur “adaptive thinking”, yang secara resmi dijelaskan sebagai “membuat model secara cerdas menyesuaikan kedalaman pemikiran berdasarkan kompleksitas tugas.”
Secara tampak ramah pengguna, tetapi sebenarnya membuka saklar penghematan global.
Pada awal Maret, nilai effort default model secara diam-diam diturunkan ke medium, sementara ringkasan proses pemikiran dengan cepat disembunyikan, sehingga pengguna tidak lagi bisa langsung melihat seberapa dalam model berpikir.
Pada periode yang sama, Anthropic merilis 14 pembaruan versi kecil berturut-turut, tetapi mengalami 5 kali gangguan besar, menunjukkan kapasitas komputasi dan tekanan beban sudah mendekati batas.
Umpan balik pengembang mulai memuncak, ada yang memperhatikan performa yang sangat buruk saat puncak (sore hari di Timur AS), curiga ini karena pengaturan pengurangan beban secara dinamis.
Hingga bulan April, Direktur AI AMD turun langsung, membuktikan data secara nyata dan memicu gelombang opini.
Hingga saat itu, Boris Cherny, kepala Claude Code di Anthropic, harus merilis tanggapan resmi.
Dia menyatakan, “adaptive thinking” mempengaruhi tampilan pemikiran, bukan proses penalaran dasar, dan bersikeras ini adalah “pengoptimalan sengaja” bukan bug. Jika pengguna ingin memperbaiki efeknya, mereka bisa secara manual mengatur effort ke high.
Pesan tersirat dari Anthropic sangat jelas: menurunkan kecerdasan bukan bug, melainkan pengoptimalan produk yang sengaja dilakukan, tinggal atur parameter sendiri.
Respon ini langsung memicu kemarahan yang lebih besar.
Intinya, dari pertengahan Februari hingga awal April, Anthropic sama sekali tidak mengumumkan perubahan besar sebelumnya.
Banyak pengguna berbayar yang tanpa sadar membayar biaya langganan tetap, tetapi model mereka secara diam-diam dihemat kapasitasnya.
Jadi, penurunan kecerdasan Claude bukan karena “otaknya rusak”, melainkan langkah yang lebih tersembunyi dan komersial dari Anthropic:
Dengan menurunkan kedalaman pemikiran default, untuk mendapatkan kecepatan lebih tinggi, beban lebih rendah, dan biaya GPU lebih murah.
Lapisan kemampuan model
Di balik badai penurunan kecerdasan ini, sebenarnya ada fenomena yang perlu diwaspadai:
Kemampuan model mulai terbagi lapisan.
Perhitungan Stella sangat sederhana: berdasarkan tarif on-demand AWS Bedrock, biaya inferensi aktual timnya pada Maret sekitar 42.121 dolar AS, sementara biaya langganan Claude Code yang mereka bayar hanya 400 dolar.
Selisih ini setidaknya menunjukkan bahwa dalam skenario penggunaan ekstrem, biaya langganan tidak sebanding dengan konsumsi kapasitas komputasi nyata.
Ini sangat mungkin merupakan hasil subsidi dari Anthropic yang membakar uang untuk merebut pangsa pasar, tetapi subsidi ini memiliki batas.
Ketika konsumsi inferensi pengguna berat mencapai ambang tertentu, keberlanjutan model bisnis mulai goyah.
Boris Cherny dalam tanggapannya mengungkapkan sinyal penting: Anthropic sedang menguji pengaturan mode effort tinggi secara default untuk pengguna Teams dan Enterprise.
Dengan kata lain, kemampuan penalaran yang lebih kuat sedang diposisikan sebagai sumber daya yang lebih mahal dan diklasifikasikan secara lapisan, tidak lagi diberikan secara setara kepada semua pengguna.
Ini berarti bahwa model besar akan semakin tersegmentasi secara bisnis.
Saat ini, 80% pendapatan Anthropic berasal dari layanan perusahaan dan panggilan API, B2B yang sangat melekat adalah tulang punggungnya.
Segala langkah yang diambil saat ini adalah untuk mengarahkan penggunaan perusahaan ke platform utama mereka sendiri.
Untuk pelanggan B2B bernilai tinggi, kemungkinan besar Anthropic akan mempercepat peluncuran versi perusahaan yang lebih kuat, menyediakan kemampuan model lengkap bagi pelanggan yang bersedia membayar biaya nyata.
Sedangkan pengguna C-end bulanan, hanya bisa menikmati versi “cukup” yang menurunkan kecerdasan, memenuhi kebutuhan ringan seperti chatting, menulis naskah, dan pelengkap kode, tetapi tidak menyentuh batas biaya.
Untuk wilayah tengah, yaitu pengembang independen dan tim kecil yang membutuhkan penalaran kompleks tetapi tidak mampu membayar harga perusahaan, mereka akan menjadi kelompok yang paling tertekan.
Seorang pengguna di X mengonfirmasi: “API versi perusahaan Claude jauh lebih baik daripada langganan Pro/Max. Dengan kerangka pengujian yang sama, perilaku versi perusahaan dan Pro/Max berbeda. Tapi ini juga berarti saya harus mengeluarkan 4-12 ribu dolar per bulan, tergantung berapa banyak thread yang saya jalankan sekaligus.”
Dengan kata lain, jalur komersialisasi model besar di masa depan kemungkinan besar akan mengutamakan B2B, sementara C-end akan dipangkas biayanya.
Siapa yang akan membayar untuk menurunkan kecerdasan?
Peristiwa penurunan kecerdasan Claude bukanlah kasus tunggal, melainkan cerminan dari fase kedua komersialisasi industri AI.
Baik OpenAI yang secara diam-diam mengurangi kualitas GPT, maupun Google yang membatasi Gemini secara diam-diam, semuanya mengikuti skenario yang sama:
Pertama menarik pengguna dengan performa tinggi, lalu mengendalikan biaya melalui pengurangan kapasitas perangkat lunak.
Hasil yang pasti adalah, B2B bisa membeli model yang lebih kuat dengan harga tinggi dan mendapatkan SLA, sementara C-end menerima versi distilasi dan effort rendah yang lebih murah.
Kecepatan peningkatan kecerdasan model untuk C-end sudah jelas tertinggal dari B-end.
Lebih parah lagi, perbedaan ini bersifat implisit.
Produsen seperti Anthropic sedang secara tidak sadar menurunkan anggaran penalaran, pengguna biasa tidak akan mendapatkan peringatan apapun.
Pilihan ini mungkin sementara mengurangi tekanan biaya kapasitas komputasi, tetapi jangka panjangnya akan merusak kepercayaan terhadap merek.
Ketika penurunan kecerdasan secara diam-diam menjadi kesepakatan umum pengguna, yang hilang dari Anthropic bukan hanya beberapa pengguna berat, tetapi seluruh ekosistem kepercayaan terhadap AI yang inklusif dan narasi transparan.
Secara makro, peristiwa Claude adalah cerminan dari transisi industri AI dari pertumbuhan liar menuju pengelolaan yang lebih terfokus.
Masa subsidi telah berakhir, biaya nyata mulai muncul, siapa yang akan menanggung biaya ini?
Apakah akan terus memotong pengalaman pengguna C-end dan menaikkan harga B-end, atau menunggu revolusi perangkat keras dan perangkat lunak yang akan meningkatkan efisiensi, semua ini akan menentukan pola aplikasi AI lima tahun ke depan.
Tren masa depan sudah mulai terlihat, AI bukan lagi mitos universal yang semakin cerdas, melainkan menuju stratifikasi elit.