Berita AI dari OpenAI minggu ini memiliki sisi tajam: perusahaan tersebut meluncurkan Safety Fellowship berbayar yang menawarkan santunan mingguan sebesar $3.850 kepada peneliti eksternal yang mempelajari apa yang mungkin salah dengan AI yang canggih — diumumkan dalam hitungan jam setelah investigasi New Yorker melaporkan bahwa OpenAI telah membubarkan tim keselamatan internalnya dan diam-diam menghapus kata “safely” dari pernyataan misi IRS-nya.
Ringkasan
OpenAI mengumumkan fellowship tersebut pada 6 April sebagai “program percontohan untuk mendukung riset independen keselamatan dan alignment serta mengembangkan generasi berikutnya dari talenta.” Program ini membayar $3.850 per minggu, setara lebih dari $200.000 per tahun, ditambah sekitar $15.000 dalam komputasi bulanan dan bimbingan dari peneliti OpenAI. Para fellow bekerja dari workspace Berkeley milik Constellation atau secara jarak jauh, dan pendaftaran ditutup pada 3 Mei. Fellowship ini tidak terbatas pada spesialis AI — OpenAI merekrut dari bidang keamanan siber, ilmu sosial, dan interaksi manusia-komputer di samping ilmu komputer.
Waktu adalah ceritanya. Investigasi Ronan Farrow di The New Yorker, yang diterbitkan pada hari yang sama, mendokumentasikan bahwa OpenAI telah membubarkan tiga organisasi keselamatan internal berturut-turut selama 22 bulan. Tim superalignment ditutup pada Mei 2024 setelah co-leads Ilya Sutskever dan Jan Leike berangkat. Leike menulis saat keluar bahwa “budaya keselamatan dan prosesnya telah tersisih oleh produk-produk yang mengilap.” Tim AGI Readiness menyusul pada Oktober 2024. Tim Mission Alignment dibubarkan pada Februari 2026 setelah hanya 16 bulan. The New Yorker juga melaporkan bahwa ketika seorang jurnalis meminta untuk berbicara dengan peneliti keselamatan eksistensial OpenAI, seorang perwakilan perusahaan menjawab: “Apa yang Anda maksud dengan keselamatan eksistensial? Itu bukan, seperti, hal.”
Fellowship ini secara tegas tidak menggantikan infrastruktur internal. Para fellow menerima kredit API dan sumber daya komputasi tetapi tidak akses sistem, sehingga memposisikan program ini sebagai pendanaan riset yang berjarak (arm’s-length) daripada upaya membangun ulang tim yang dibubarkan.
Agenda riset mencakup tujuh area prioritas: evaluasi keselamatan, etika, ketangguhan, mitigasi yang dapat diskalakan, metode keselamatan yang menjaga privasi, pengawasan agensial, dan domain penyalahgunaan berisiko tinggi. Pada akhir program di Februari 2027, setiap fellow harus menghasilkan keluaran yang substansial — sebuah makalah, benchmark, atau dataset. Kredensial akademik spesifik tidak diperlukan; OpenAI menyatakan bahwa mereka memprioritaskan kemampuan riset, penilaian teknis, dan kapasitas eksekusi.
Seperti yang telah dilaporkan crypto.news, keyakinan pada komitmen keselamatan yang dinyatakan perusahaan AI lini terdepan adalah sinyal pasar yang memengaruhi penjatahan modal di seluruh infrastruktur AI, token AI, serta protokol DePIN dan AI agent yang berada di perpotongan antara kripto dan kecerdasan buatan. Seperti yang telah dicatat crypto.news, lintasan belanja OpenAI dan kredibilitas prioritas operasionalnya dipantau secara ketat oleh investor yang menilai sektor infrastruktur AI — sebuah sektor dengan tumpang tindih yang terus meningkat dengan sistem berbasis blockchain. Apakah fellow eksternal yang bekerja tanpa akses internal dapat secara bermakna memengaruhi pengembangan model adalah pertanyaan yang akan mulai dijawab oleh riset dari kohort pertama pada awal 2027.