Aset yang sesuai dengan AI, Quantum sedang「menilai ulang」

Ditulis oleh: Zhang Feng

Saat ini, kecerdasan buatan semakin dalam dan belum pernah terjadi sebelumnya terintegrasi ke dalam produksi dan kehidupan sosial; sistem keamanan serta tata kelolanya menjadi fondasi bagi era digital. Namun, sebuah revolusi daya komputasi yang bersumber dari prinsip-prinsip fisika—komputasi kuantum—sedang diam-diam mendekat. Kekuatan berpotensi menggulingkannya membuat benteng keamanan yang ada dan kerangka tata kelola menghadapi pengujian yang serius. Apakah komputasi kuantum akan menggulingkan sistem keamanan dan tata kelola AI yang ada? Ini bukan hanya masalah teknis, melainkan tantangan tingkat global yang berkaitan dengan tatanan sosial digital di masa depan. Ketika lompatan daya komputasi bertemu dengan aturan yang tertinggal, bagaimana kita mempersiapkan diri untuk 「Q-Day」?

I. Bagaimana komputasi kuantum mengancam algoritma kriptografi asimetris yang banyak digunakan saat ini?

Keamanan sistem AI saat ini, dari transmisi model, penyimpanan data, hingga autentikasi identitas, sangat bergantung pada algoritma kriptografi asimetris yang diwakili oleh RSA dan ECC (enkripsi kurva eliptik). Keamanan algoritma-algoritma ini dibangun di atas 「kompleksitas komputasi」 dari masalah matematika yang sulit seperti 「pemfaktoran bilangan besar」 atau 「logaritma diskrit」—yakni komputer klasik tidak dapat menyelesaikan masalah-masalah tersebut dalam waktu yang dapat diterima.

Namun, komputasi kuantum membawa perubahan paradigma yang mendasar. Algoritma kuantum yang diwakili oleh Shor, secara teori dapat menurunkan waktu penyelesaian masalah-masalah tersebut dari tingkat eksponensial menjadi polinomial. Sebuah makalah ulasan menyatakan bahwa termasuk algoritma kuantum terbaru, seperti Regev dan perluasannya, sedang terus mengoptimalkan efisiensi pemecahan kriptografi asimetris. Ini berarti bahwa, begitu sebuah komputer kuantum umum dengan skala yang cukup (biasanya mengacu pada jutaan qubit stabil) hadir, 「kunci」 yang saat ini melindungi komunikasi internet, tanda tangan digital, dan data terenkripsi kemungkinan akan terbuka seketika.

Ancaman ini tidaklah jauh. Peringatan penelitian dari komunitas Zhi Yuan menyebut bahwa ini adalah ancaman 「yang sedang terjadi sekarang」: penyerang dapat mulai sekarang mencegat dan menyimpan data komunikasi yang terenkripsi (termasuk data pelatihan AI, parameter model, dll.), lalu menunggu komputer kuantum di masa depan matang untuk melakukan dekripsi. Strategi 「cepat cegat, lalu dekripsi」 ini membuat semua informasi bernilai tinggi yang perlu dirahasiakan dalam jangka panjang—termasuk rahasia negara, paten komersial, dan data privasi individu—berada dalam risiko di masa mendatang. Oleh karena itu, ancaman komputasi kuantum terhadap kriptografi asimetris bersifat mendasar dan sistemik, langsung menggoyahkan akar sistem keamanan AI saat ini bahkan seluruh dunia digital.

II. Tantangan baru apa yang dihadapi pelatihan model AI dan perlindungan privasi data menghadapi komputasi kuantum?

Perkembangan AI bergantung pada pemberian makan data dalam jumlah besar dan pelatihan model yang kompleks; proses ini sendiri penuh tantangan privasi dan keamanan. Ketika komputasi kuantum ikut campur, tantangan-tantangan tersebut menjadi lebih tajam dan lebih kompleks.

Pertama, kegagalan kerahasiaan jangka panjang dalam siklus hidup data. Seperti disebutkan sebelumnya, kumpulan data pelatihan AI yang dienkripsi saat disimpan di cloud atau saat transmisi, dapat sepenuhnya terbongkar akibat dekripsi kuantum di masa depan. White paper strategi migrasi global anti-kuantum dari Xi’an Jiaotong-Liverpool University secara tegas menyatakan bahwa para lawan di seluruh dunia secara terorganisasi sedang menerapkan strategi 「pemanenan data」 ini, dengan sabar menunggu datangnya 「Q-Day」 (hari komputasi kuantum menjadi praktis). Ini merupakan ancaman awal bagi model AI yang bergantung pada data sensitif (seperti catatan medis, informasi keuangan, dan ciri biologis).

Kedua, teknologi komputasi privasi seperti federated learning menghadapi ujian baru. Federated learning melindungi data mentah dengan melatih model di perangkat lokal dan hanya melakukan pembaruan interaksi pada parameter model. Namun, informasi gradien atau pembaruan parameter dari interaksi tersebut juga dikirim dalam bentuk terenkripsi. Jika enkripsi lapisan dasar ditembus oleh komputasi kuantum, penyerang dapat menurunkan secara terbalik karakteristik data mentah para pihak yang terlibat, sehingga mekanisme perlindungan privasi menjadi tidak berarti.

Terakhir, kesulitan pencurian model dan perlindungan hak kekayaan intelektual meningkat drastis. Model AI yang sudah matang adalah aset inti perusahaan. Saat ini, bobot model dan arsitektur biasanya didistribusikan dan diterapkan melalui metode enkripsi. Komputasi kuantum mungkin membuat langkah-langkah perlindungan tersebut menjadi tidak efektif, yang menyebabkan model mudah disalin, direkayasa balik, atau dimanipulasi, sehingga menimbulkan pelanggaran hak kekayaan intelektual dan celah keamanan yang serius. Institute Penelitian Terkait Komunikasi dan Informasi Tiongkok (China Academy of Information and Communications Technology) dalam 《Buku Biru Tata Kelola Kecerdasan Buatan》 menekankan bahwa tata kelola AI harus menghadapi risiko seperti penyalahgunaan teknologi dan keamanan data; komputasi kuantum jelas memperbesar daya rusak dari risiko-risiko tersebut.

III. Bagaimana perkembangan quantum machine learning akan memengaruhi kerangka keamanan AI dan telaah etika?

Kombinasi komputasi kuantum dan AI—quantum machine learning (QML)—menandakan terobosan efisiensi yang baru. Namun, pada saat yang sama, ia juga membawa masalah keamanan dan etika baru yang belum pernah terjadi sebelumnya, sehingga mengguncang kerangka pemeriksaan yang ada.

Dari sisi keamanan, QML dapat melahirkan alat serangan yang lebih kuat. Misalnya, algoritma kuantum dapat sangat mempercepat generasi sampel adversarial, menciptakan serangan yang lebih tersamar dan lebih merusak, sehingga membuat sistem pertahanan keamanan AI berbasis komputasi klasik saat ini (seperti adversarial training, abnormality detection) dengan cepat menjadi usang. Ada analisis yang menyebut 「kuantum+AI」 sebagai medan perang hidup-mati berikutnya dalam keamanan siber, yang menunjukkan bahwa kerangka regulasi terkait harus disempurnakan secara proaktif.

Dari sisi etika, sifat 「kotak hitam」 QML mungkin lebih mendalam daripada AI klasik. Proses keputusannya didasarkan pada superposisi kuantum dan keadaan keterikatan (entanglement), sehingga mungkin lebih sulit dijelaskan, diaudit, dan dipertanggungjawabkan. Perdebatan etika serta risiko yang dibawa oleh QML—seperti keadilan algoritmik, penentuan tanggung jawab, dan kontrol teknis—sudah banyak dibahas. Bagaimana prinsip etika AI yang ada (seperti transparansi, keadilan, dan akuntabilitas) dapat diterapkan pada skala kuantum? Bagaimana lembaga pengawas menelaah model keputusan yang berbasis sirkuit kuantum, yang mungkin berada dalam banyak status superposisi? Ini semua adalah masalah yang belum disiapkan dengan baik oleh kerangka telaah etika saat ini. Pola tata kelola perlu bergeser dari sekadar kepatuhan teknis menuju pemahaman yang lebih mendalam tentang hakikat sifat kuantum dan dampak sosialnya.

IV. Apakah regulasi tata kelola AI yang ada (misalnya GDPR) dapat menghadapi perubahan keamanan akibat komputasi kuantum?

Regulasi tata kelola AI dan data yang berlaku saat ini, yang diwakili oleh Peraturan Perlindungan Data Umum Uni Eropa (GDPR), memiliki nilai panduan pada tingkat konsep seperti 「perlindungan by design dan perlindungan by default」, 「data minimization」, 「storage limitation」, serta 「integrity and confidentiality」. Namun, dalam implementasi teknis yang spesifik dan persyaratan kepatuhan, mereka justru sedang menghadapi 「gap kepatuhan」 yang disebabkan oleh komputasi kuantum.

GDPR mengharuskan pengendali data mengambil langkah teknis dan organisasional yang sesuai untuk memastikan keamanan data. Tetapi dalam konteks ancaman kuantum, apa yang dimaksud dengan langkah enkripsi yang 「sesuai」? Terus menggunakan algoritma yang telah terbukti tidak aman terhadap kuantum kemungkinan besar akan dinilai sebagai kegagalan memenuhi kewajiban jaminan keamanan di masa depan. Ketentuan tenggat waktu pemberitahuan kebocoran data dalam regulasi, bagaimana cara efektif menerapkannya ketika menghadapi serangan tingkat lanjut yang memanfaatkan komputasi kuantum, yang mungkin selesai seketika dan meninggalkan jejak yang tidak terlihat?

Di seluruh dunia, para pembuat undang-undang sudah menyadari kebutuhan akan perubahan. 《Laporan Tata Kelola Kecerdasan Buatan Global Tahun 2025》 menunjukkan bahwa berbagai negara sedang mempercepat penyusunan undang-undang tata kelola AI khusus, serta membentuk lembaga koordinasi tingkat tinggi. Tiongkok dalam 《Laporan Pengembangan Tiongkok Digital (2024)》 menekankan untuk 「mempercepat penyempurnaan sistem dasar untuk data」 dan terus mendorong aksi 「kecerdasan buatan+」. Tren-tren ini menunjukkan bahwa sistem tata kelola sedang menyesuaikan diri secara aktif. Namun, regulasi yang secara khusus ditujukan pada ranah perpotongan 「komputasi kuantum+AI」 saat ini hampir masih kosong. Regulasi yang ada kekurangan ketentuan tentang masalah-masalah spesifik seperti jadwal migrasi kriptografi pasca-kuantum, standar audit model QML, serta klasifikasi tingkat keamanan data di era kuantum, sehingga sulit menghadapi perubahan keamanan yang akan datang secara efektif.

V. Apa prospek penerapan dan kesulitan implementasi kriptografi pasca-kuantum dalam sistem AI?

Solusi teknis paling langsung untuk menghadapi ancaman kuantum adalah kriptografi pasca-kuantum (PQC). PQC adalah algoritma kriptografi yang mampu menahan serangan dari komputer kuantum; algoritma ini tidak didasarkan pada prinsip-prinsip kuantum, melainkan didasarkan pada masalah matematika baru yang diyakini juga sulit diselesaikan dengan cepat bahkan oleh komputer kuantum (seperti kisi lattice, kode, multi-variat, dll.).

Prospek penerapannya dalam sistem AI luas dan mendesak. PQC dapat digunakan untuk melindungi setiap tahap dalam alur kerja AI: mengenkripsi data pelatihan dan file model menggunakan algoritma PQC; menggunakan tanda tangan digital PQC untuk memverifikasi integritas dan keaslian sumber model; serta membangun saluran komunikasi aman PQC antar node komputasi AI terdistribusi. Fortinet menyatakan bahwa PQC bukanlah konsep yang jauh di masa depan, melainkan kebutuhan solusi praktis yang mendesak untuk melindungi sistem digital dari ancaman kuantum yang potensial.

Namun, penerapan menyeluruh PQC menghadapi kesulitan yang signifikan:

Tantangan kinerja dan kompatibilitas: banyak algoritma PQC memiliki ukuran kunci, panjang tanda tangan, atau biaya komputasi yang jauh lebih besar dibanding algoritma yang ada. Mengintegrasikannya ke dalam proses pelatihan dan inferensi AI yang sensitif terhadap efisiensi komputasi dan latensi dapat menimbulkan hambatan kinerja. Pada saat yang sama, perlu dilakukan peningkatan pada seluruh perangkat keras, perangkat lunak, dan tumpukan protokol terkait untuk memastikan kompatibilitas.

Kompleksitas standar dan migrasi: meskipun lembaga seperti NIST di Amerika Serikat sedang mendorong proses standardisasi PQC, penetapan standar akhir dan unifikasi global masih membutuhkan waktu. Dari dinamika yang dirilis oleh Biro Pengelolaan Penjaminan Keamanan Komunikasi Beijing (Beijing Mi Guan Ju), terlihat bahwa industri secara aktif membuka sumber (open-source) implementasi algoritma kandidat NIST untuk mendorong berbagai sektor merespons ancaman tersebut. Keseluruhan proses migrasi adalah proyek sistem yang besar dan kompleks, mencakup penilaian risiko, pemilihan algoritma, penerapan hibrida, pengujian, dan penggantian sepenuhnya. Hal ini terutama demikian untuk ekosistem AI yang strukturnya kompleks.

Risiko keamanan baru: algoritma PQC sendiri adalah bidang penelitian yang relatif baru, dan keamanan jangka panjangnya belum melewati pengujian analisis sandi praktis selama puluhan tahun seperti RSA. PQC yang dideploy secara tergesa-gesa dalam sistem AI juga merupakan risiko karena kemungkinan adanya celah yang belum diketahui.

VI. Menghadapi perubahan ini, menunggu pasif 「Q-Day」 adalah berbahaya

Dampak disruptif komputasi kuantum terhadap sistem keamanan dan tata kelola AI yang ada adalah nyata dan sudah semakin dekat. Ini tidak sepenuhnya menumbangkan sistem yang ada, melainkan—dengan meruntuhkan fondasi kriptografinya, meningkatkan risiko data, mempersulit masalah etika, dan menonjolkan keterlambatan regulasi—memaksa seluruh sistem untuk melakukan upgrade yang mendalam dan proaktif.

Menghadapi perubahan ini, menunggu pasif 「Q-Day」 adalah berbahaya. Kami menyarankan untuk mengambil jalur tindakan yang dapat dieksekusi berikut:

Mulai penilaian risiko keamanan kuantum dan susun daftar inventaris: segera lakukan penilaian ancaman kuantum terhadap aset inti AI (terutama model dan data yang melibatkan data sensitif jangka panjang), identifikasi bagian yang paling rapuh, dan buat daftar prioritas migrasi.

Susun dan implementasikan peta jalan migrasi PQC: ikuti perkembangan lembaga standardisasi seperti NIST, dan mulai merencanakan integrasi PQC dalam pengembangan serta operasi sistem AI. Utamakan penerapan desain 「cryptographic agility」 pada sistem baru dan sistem-sistem kunci agar memungkinkan penggantian algoritma kriptografi secara mulus di masa depan. Pertimbangkan mode enkripsi hibrida 「klasik+PQC」 yang sedang digunakan saat ini sebagai langkah transisi.

Dorong pembaruan yang adaptif terhadap kerangka tata kelola: organisasi industri, lembaga standardisasi, dan pihak regulator perlu bekerja sama untuk meneliti dan memasukkan persyaratan ketahanan terhadap kuantum ke dalam standar keamanan AI, regulasi perlindungan data, serta sistem sertifikasi produk. Bangun terlebih dahulu kerangka riset dan pedoman untuk telaah etika QML.

Perkuat pelatihan dan riset talenta lintas bidang: kembangkan talenta tipe gabungan yang memahami AI sekaligus komputasi kuantum dan kriptografi; dorong agar dalam riset keamanan AI dimasukkan model ancaman kuantum; dan danai pengembangan teknologi keamanan AI yang tahan terhadap kuantum.

Tantangan yang dibawa komputasi kuantum itu sangat besar, tetapi ia juga memberi kita kesempatan untuk meninjau kembali dan memperkuat fondasi dunia digital. Melalui perencanaan proaktif, inovasi kolaboratif, dan tata kelola yang lincah (agile), sangat mungkin bagi kita untuk membangun masa depan AI yang lebih tangguh—yang tidak hanya mampu merangkul keuntungan daya komputasi kuantum, tetapi juga tahan terhadap risikonya dari sisi keamanan.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan