Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Di balik "Skandal Kebohongan" OpenAI: Contoh klasik kegagalan sistemik
Ditulis oleh: Pusat Penelitian Web 4
Masalah filosofis terbesar bukanlah “apakah kita bisa mempercayai seseorang”, melainkan “bagaimana merancang sebuah sistem yang membuat kepercayaan menjadi tidak diperlukan”. Jika tidak, kita sedang menggunakan arsitektur tata kelola abad ke-19 untuk menghadapi permainan kekuasaan paling kuat di abad ke-21.
01 Sebuah laporan investigasi yang mengguncang Silicon Valley
Pada 6 April 2026, The New Yorker memuat laporan investigasi mendalam yang diselesaikan dalam waktu 18 bulan, yang mengungkap sebuah kisah internal di OpenAI—kisah yang hingga kini masih membuat banyak pihak yang mengetahui merasa gentar.
Materi inti laporan ini adalah memo internal sepanjang tujuh puluh halaman yang disusun oleh mantan kepala ilmuwan OpenAI, Ilya Sutskever, pada musim gugur 2023, serta lebih dari dua ratus halaman catatan pribadi yang disimpan oleh pendiri bersama Anthropic, Dario Amodei. Setelah laporan dipublikasikan, seluruh bukti mengarah pada satu kesimpulan yang sama: para pengendali OpenAI, Sam Altman, memiliki pola perilaku “secara konsisten berbohong”.
Ini bukan gosip teknologi biasa. Ini adalah pertanyaan sistemik tentang apakah manajemen puncak salah satu perusahaan teknologi terkuat dalam sejarah manusia layak untuk dipercaya.
02 Ini bukan masalah Altman seorang diri
Jika Anda memahami peristiwa ini hanya dari sudut pandang tersebut, Anda telah melewatkan masalah yang sesungguhnya penting.
Media arus utama mempertanyakan: Apakah Altman layak dipercaya?
Namun pertanyaan yang benar-benar layak diajukan adalah: ketika sebuah teknologi yang cukup untuk mengubah peradaban manusia diserahkan kepada seperangkat rancangan institusi yang “bergantung pada kesadaran diri”, krisis bukanlah sesuatu yang kebetulan terjadi, melainkan sesuatu yang pasti terjadi.
Kami menamai fenomena ini: kegagalan struktural dalam tata kelola AI.
Ini bukan masalah Altman seorang diri. Ini adalah penyakit umum di seluruh industri AI.
Kepercayaan adalah salah satu kata yang paling sering muncul dalam bidang AI. Hampir setiap perusahaan AI akan mengatakan: Percayalah pada kami, kami mengutamakan keamanan, teknologi kami akan memberi manfaat bagi manusia. Namun laporan investigasi The New Yorker mengungkap fakta yang kejam: OpenAI tidak pernah membangun struktur institusional apa pun yang membuat kepercayaan menjadi tidak diperlukan.
Keputusan inti dalam lembaga ini dibuat oleh satu orang, atau paling banyak oleh beberapa orang. Tidak ada penyeimbang dari pihak luar. Tidak ada mekanisme transparansi yang bersifat wajib. Janji adalah alat, bukan batasan.
Dalam “Mitologi Sisyphus”, Camus menulis: “Menentukan apakah hidup ini layak dijalani setara dengan menjawab pertanyaan mendasar dalam filsafat.” Logika yang sama berlaku di bidang AI: ketika teknologinya cukup untuk mengubah peradaban, dan kendala institusinya begitu rapuh, bagaimana kita membangun sebuah sistem yang tidak perlu bergantung pada integritas pribadi?
03 Daftar janji yang dikhianati
Laporan investigasi The New Yorker menyusun daftar lengkap “daftar pengkhianatan janji”.
Poin pertama adalah negosiasi Microsoft pada tahun 2019. Saat itu OpenAI sedang bertransformasi dari organisasi nirlaba menjadi entitas “berbatas keuntungan”, dan pendiri bersama Anthropic, Dario Amodei, mengajukan klausul keamanan inti dalam negosiasi, “penggabungan dan bantuan”—yakni jika ada perusahaan lain yang secara keamanan lebih dekat dengan AGI, OpenAI harus berhenti bersaing dan bergabung dengan pihak tersebut. Ini adalah garis batas dalam keterlibatannya pada negosiasi. Setelah kontrak ditandatangani, Amodei mendapati bahwa Microsoft memiliki hak veto atas penggabungan tersebut, sehingga klausul itu menjadi tidak berarti. Ketika ia memverifikasi klausul itu langsung berhadapan dengan Altman, Altman pada awalnya menyangkal bahwa klausul tersebut ada, sampai Amodei meminta rekan kerjanya untuk membuktikan langsung; barulah Altman mengaku dan beralasan “tidak ingat”. Amodei menulis dalam catatan pribadinya: “80% piagam telah dikhianati.”
Poin kedua adalah komitmen komputasi tahun 2023. OpenAI pernah mengumumkan dengan meriah pembentukan “tim super penyelarasan”, dan berjanji mengalokasikan 20% kapasitas komputasi perusahaan ke dalam tim tersebut. Namun, orang dalam mengungkap bahwa kapasitas komputasi yang benar-benar diterima oleh tim itu hanya 1% hingga 2%, dan menggunakan chip yang paling tua dan paling buruk. Ketika kepala tim Jan Leike memprotes, balasan para eksekutif sangat dingin: “Janji ini tidak pernah realistis.” Perhatikan bagian ingatan yang selektif di sini: janji dilakukan 20%, kenyataannya diberikan 1%-2%, lalu dinyatakan “janji itu tidak realistis”. Ini bukan penyimpangan eksekusi, melainkan kelupaan yang bersifat sistemik.
Ini bukan masalah integritas. Ini adalah manifestasi yang tak terelakkan dari kegagalan institusi. Ketika kekuasaan terkonsentrasi pada satu orang, dan orang tersebut memiliki kecenderungan melemah secara naluriah terhadap kekuatan mengikat atas janji, maka janji pasti akan dilupakan secara sistemik, didefinisikan ulang, dan dirasionalisasi. Ini bukan kekurangan Altman seorang diri; ini adalah ciri yang sama dari setiap struktur kekuasaan yang terpusat.
04 Mengapa whistleblower selalu gagal
Ilya Sutskever pernah menulis sebuah kalimat dalam memo yang diserahkan kepada dewan, intinya adalah: siapa pun yang berkomitmen membangun teknologi yang berpotensi mengubah peradaban akan memikul tanggung jawab yang belum pernah terjadi sebelumnya, tetapi pada akhirnya orang-orang yang berada di posisi-posisi itu biasanya adalah mereka yang tertarik pada kekuasaan.
Di sini terdapat paradoks yang mendalam: orang yang paling perlu dikekang justru adalah mereka yang paling haus mendapatkan kekuasaan. Dan rancangan institusi yang ada saat ini sama sekali tidak memiliki perlindungan terhadap paradoks ini.
Ketika Ilya memutuskan untuk memberikan peringatan dari dalam, ia tidak melapor kepada regulator eksternal, karena industri AI nyaris tidak memiliki pengawasan eksternal; ia juga tidak mengorganisasi aksi kolektif karyawan, karena ia adalah seorang ilmuwan, bukan aktivis. Seluruh modalnya adalah sebuah dokumen, dan kemungkinan adanya niat buruk dalam dewan.
Hasilnya, kita semua tahu: pada November 2023, dewan memang memberhentikan Altman, tetapi lima hari kemudian, di bawah tekanan yang berlapis tiga dari modal, opini publik, dan kepentingan karyawan, dewan benar-benar runtuh; Altman kembali sebagai raja, sementara Ilya yang mencoba meniup peluit dikeluarkan dari pusat kekuasaan.
Ini bukan sekadar kisah tentang “Altman terlalu kuat”. Ini adalah kisah tentang desain institusi: dalam sebuah organisasi dengan konsentrasi kekuasaan yang sangat tinggi, kegagalan mekanisme whistleblowing bersifat struktural, bukan kebetulan. Alasannya sangat sederhana—modal whistleblower adalah reputasi dan prospek karier yang mereka miliki bersama majikan. Begitu sebuah organisasi memilih untuk menyangkal, menunda, dan meminggirkan, individu hampir tidak mungkin melawan. Inti dari struktur terpusat adalah membuat suara dari luar sulit masuk, sementara suara dari dalam sulit diperbesar.
Kisah yang sama juga terjadi pada Dario Amodei. Ketika ia mendapati tidak bisa mengubah budaya keamanan OpenAI dari dalam, ia memilih jalan lain: pergi, mendirikan Anthropic, dan mempraktikkan nilai-nilainya melalui institusinya sendiri. Ini adalah bentuk pengunduran diri yang terhormat, tetapi bukan kemenangan sistem—karena hal itu bergantung pada keyakinan pribadi pendiri, bukan pada jaminan institusional apa pun.
Masalah inti tata kelola AI bukanlah “bagaimana melatih lebih banyak pemimpin AI yang berintegritas”, melainkan “bagaimana merancang seperangkat institusi agar tetap berjalan normal meskipun pemimpinnya tidak berintegritas”.
05 Blockchain bukan obat mujarab, tetapi potongan teka-teki yang hilang
Saya mengemukakan sebuah penilaian yang mungkin mengejutkan pembaca di luar komunitas blockchain: nilai inti blockchain bukanlah menerbitkan token, bukan spekulasi Web 3, melainkan sebuah inovasi paradigma teknologi tata kelola—eksternalisasi kepercayaan.
Apa arti eksternalisasi kepercayaan? Institusi tradisional bergantung pada “mempercayai suatu lembaga atau seseorang”. Pendekatan blockchain benar-benar berbeda: memindahkan kepercayaan dari manusia ke aturan dan kode. Tidak bergantung pada pihak ketiga yang dipercaya, melainkan pada aturan yang transparan dan bukti yang dapat diverifikasi.
Kekurangan tata kelola AI justru terletak pada kenyataan bahwa ia sama sekali tidak memiliki mekanisme eksternalisasi kepercayaan seperti ini. Janji OpenAI dinilai pelaksanaannya oleh OpenAI sendiri. Ini bukan regulasi, melainkan penilaian diri. Dunia luar tidak bisa memverifikasi secara independen apakah mereka benar-benar menggunakan 20% kapasitas komputasi untuk riset keamanan, juga tidak bisa memverifikasi secara independen apakah proses rilis model mereka benar-benar telah disetujui oleh komite keamanan. Transparansi adalah opsi, bukan tuntutan struktural.
Blockchain menyediakan jalur solusi yang mungkin. Tidak berarti bahwa menempatkan model AI di blockchain otomatis menyelesaikan masalah—teknologi tidak bisa menggantikan persoalan tata kelola—tetapi catatan yang transparan dan dapat diverifikasi dapat membuat perilaku sistem AI menjadi lebih transparan dan lebih mudah diaudit. Misalnya, sebuah log keputusan AI berbasis blockchain dapat membuat setiap pembaruan model penting dan setiap keputusan alokasi kapasitas dicatat di rantai (chain) serta tidak dapat dimanipulasi. Ini tidak akan membuat sistem AI menjadi sempurna, tetapi setidaknya membuat “kelupaan sistemik atas janji” menjadi lebih sulit terjadi.
Tentu saja, ini hanya sebuah arah, bukan peluru ajaib. Teknologi itu sendiri tidak dapat menggantikan tata kelola. Tetapi pada era ketika tata kelola AI hampir tidak ada, setiap skema yang dapat membuat kekuasaan menjadi lebih transparan, serta penyeimbangan dan kontrol (check-and-balance) menjadi lebih terstruktur, layak untuk didiskusikan secara serius.
06 Pertanyaan yang lebih dalam
Pelajaran sesungguhnya dari krisis OpenAI tidak terletak pada Altman itu seperti apa orangnya.
Melainkan pada: ketika sebuah teknologi yang berpotensi menentukan arah peradaban manusia masuk ke dalam kerangka institusi “berdasarkan kesadaran diri”, risikonya tidak berasal dari hilangnya kendali atas teknologi, melainkan dari kegagalan institusi.
Dalam sejarah manusia, setiap revolusi teknologi besar selalu disertai dengan iterasi model tata kelola. Energi nuklir melahirkan International Atomic Energy Agency dan sistem nonproliferasi nuklir. Internet melahirkan regulasi perlindungan data dan peraturan keamanan siber. Setiap teknologi yang cukup untuk mengubah struktur kekuasaan memaksa manusia membangun kerangka institusi baru untuk mengaturnya.
AGI adalah teknologi pertama yang berpotensi mengubah peradaban tanpa manusia membangun kerangka tata kelola yang efektif terlebih dahulu. Kerangka ini tidak boleh bergantung pada moral pribadi dari siapa pun pendirinya, tidak boleh bergantung pada komitmen diri mana pun dari perusahaan mana pun. Ia harus berupa sistem kelembagaan yang bersifat struktural, berisi mekanisme penyeimbang dan pengendali, serta tidak bergantung pada kesadaran diri siapa pun.
Namun saat ini, kita belum memilikinya.
Terkait memo tujuh puluh halaman milik Ilya Sutskever, laporan investigasi The New Yorker merekonstruksi inti dari isinya: Ilya menyampaikan penilaiannya secara jelas kepada dewan—ia berpandangan bahwa Altman tidak seharusnya menjadi orang yang memegang tombol AGI.
Dokumen ini menjadi pemicu peristiwa “intrik perebutan kekuasaan” OpenAI yang mengejutkan dunia pada tahun 2023. Dewan memang mengambil keputusan untuk memberhentikan Altman berdasarkan itu. Tetapi dalam lima hari berikutnya, struktur kekuasaan di seluruh industri memilih caranya sendiri.
Ini bukan kisah tentang orang baik yang mengalahkan orang jahat, atau orang jahat yang mengalahkan orang baik. Ini adalah kisah tentang institusi. Dalam institusi yang baik, sebagian perilaku Altman akan dibatasi; dalam institusi yang gagal, bahkan whistleblower yang paling tulus sekalipun akan dibalas oleh kekuasaan.
Manusia sedang memasuki era ketika AGI dapat mengubah peradaban. Dan institusi yang kita gunakan untuk mengelola era itu masih tertinggal di abad ke-19.
Ini bukan kegagalan siapa pun. Ini adalah contoh klasik kegagalan desain institusi.
Dan pelajaran yang benar-benar penting bukanlah “jangan percaya Altman”—melainkan membangun seperangkat institusi yang memungkinkan siapa pun untuk dipertanyakan, dikendalikan, dan tidak bisa lepas dari kendali batasan transparansi.
Kepercayaan itu perlu. Tetapi di era AI, kepercayaan saja jauh dari cukup. Yang kita butuhkan adalah institusi yang membuat kepercayaan menjadi tidak diperlukan.
(Lebih lanjut, artikel ini disusun berdasarkan laporan investigasi The New Yorker tanggal 6 April 2026, pernyataan resmi OpenAI, dan bahan publik. Data hingga 6 April 2026.)