Integrasi AI dan Web3 Memicu Tantangan Keamanan Baru, DeFAI Menjadi Sorotan
Baru-baru ini, sebuah konferensi blockchain yang berfokus pada tren integrasi AI dan Web3 diadakan di Istanbul. Para ahli dari perusahaan keamanan, firma akuntansi, dan proyek blockchain berkumpul untuk membahas secara mendalam tentang status aplikasi teknologi AI dalam bidang keuangan terdesentralisasi (DeFi) dan tantangan keamanan yang ditimbulkannya.
Selama konferensi, "DeFAI"( keuangan kecerdasan buatan terdesentralisasi) menjadi topik hangat. Dengan perkembangan cepat model bahasa besar( LLM) dan agen AI, paradigma keuangan baru ini secara bertahap terbentuk. Namun, pada saat yang sama, ia juga membawa permukaan serangan dan risiko keamanan yang baru.
Seorang ahli keamanan menunjukkan: "DeFAI meskipun memiliki prospek yang luas, tetapi juga memaksa kita untuk meninjau kembali mekanisme kepercayaan dalam sistem terdesentralisasi. Berbeda dengan kontrak pintar yang berbasis logika tetap, proses pengambilan keputusan dari agen AI dipengaruhi oleh berbagai faktor, sehingga memiliki sifat yang tidak dapat diprediksi. Ini tidak hanya meningkatkan risiko, tetapi juga menciptakan peluang bagi penyerang."
Agent AI adalah entitas cerdas yang dapat mengambil keputusan dan mengeksekusi secara mandiri berdasarkan logika AI, biasanya diotorisasi untuk beroperasi oleh pengguna, protokol, atau DAO. Saat ini, sebagian besar agen AI beroperasi di atas arsitektur Web2, bergantung pada server terpusat dan API, yang membuatnya rentan terhadap berbagai ancaman serangan. Begitu terjaga, tidak hanya bisa mengakibatkan kehilangan dana, tetapi juga berpotensi mempengaruhi stabilitas seluruh protokol.
Para ahli juga membahas skenario serangan yang khas: ketika agen perdagangan AI yang dijalankan oleh pengguna DeFi memantau pesan media sosial sebagai sinyal perdagangan, penyerang dapat memicu agen untuk melakukan likuidasi darurat dengan menerbitkan peringatan palsu. Ini tidak hanya dapat menyebabkan kerugian aset bagi pengguna, tetapi juga dapat memicu volatilitas pasar yang dapat dimanfaatkan lebih lanjut oleh penyerang.
Terkait risiko-risiko ini, para ahli yang hadir sepakat bahwa keamanan agen AI harus menjadi tanggung jawab bersama antara pengguna, pengembang, dan lembaga keamanan pihak ketiga. Pengguna perlu berhati-hati dalam memberikan izin dan memeriksa operasi berisiko tinggi; pengembang harus menerapkan langkah-langkah pertahanan pada tahap desain; sementara perusahaan keamanan pihak ketiga harus menyediakan tinjauan independen dan bekerja sama dengan semua pihak untuk mengidentifikasi risiko dan mengusulkan langkah-langkah mitigasi.
Seorang ahli memperingatkan: "Jika kita terus menganggap AI sebagai 'kotak hitam', insiden keamanan di dunia nyata hanyalah masalah waktu." Ia menyarankan para pengembang yang sedang menjelajahi arah DeFAI: "Logika perilaku agen AI juga diimplementasikan oleh kode. Karena itu adalah kode, ada kemungkinan untuk diserang, oleh karena itu perlu dilakukan audit keamanan dan pengujian penetrasi secara profesional."
Dengan perkembangan teknologi blockchain yang terus berlanjut dan penyempurnaan lingkungan regulasi secara bertahap, penggabungan AI dan Web3 akan terus menarik perhatian dan diskusi lebih lanjut. Industri perlu bekerja sama untuk mendorong inovasi sembari memberikan perhatian yang cukup dan menanggapi tantangan keamanan yang mungkin muncul.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
8 Suka
Hadiah
8
6
Bagikan
Komentar
0/400
AirdropBlackHole
· 13jam yang lalu
又一个play people for suckers收割场
Lihat AsliBalas0
CryptoComedian
· 08-03 05:16
Suckers hari ini berita menarik: AI play people for suckers dalam 0,1 detik tanpa berpikir.
Lihat AsliBalas0
DefiSecurityGuard
· 08-03 05:15
*sigh* satu lagi permukaan serangan yang tidak kita butuhkan... agen LLM ini pada dasarnya adalah honeypot yang menunggu untuk terjadi sejujurnya. DYOR tetapi analisis ancaman saya menunjukkan bendera merah segera.
Lihat AsliBalas0
BearMarketLightning
· 08-03 05:11
Satu lagi kue yang mewah~ bermain dengan konsep.
Lihat AsliBalas0
ExpectationFarmer
· 08-03 05:05
Bukan begitu, ai melindungi ai, kapan melindungi saya?
Lihat AsliBalas0
LeekCutter
· 08-03 05:05
Eh, orang yang membuat model besar lagi akan play people for suckers.
Kebangkitan DeFAI yang Didukung AI Tantangan Keamanan Menguji Inovasi Web3
Integrasi AI dan Web3 Memicu Tantangan Keamanan Baru, DeFAI Menjadi Sorotan
Baru-baru ini, sebuah konferensi blockchain yang berfokus pada tren integrasi AI dan Web3 diadakan di Istanbul. Para ahli dari perusahaan keamanan, firma akuntansi, dan proyek blockchain berkumpul untuk membahas secara mendalam tentang status aplikasi teknologi AI dalam bidang keuangan terdesentralisasi (DeFi) dan tantangan keamanan yang ditimbulkannya.
Selama konferensi, "DeFAI"( keuangan kecerdasan buatan terdesentralisasi) menjadi topik hangat. Dengan perkembangan cepat model bahasa besar( LLM) dan agen AI, paradigma keuangan baru ini secara bertahap terbentuk. Namun, pada saat yang sama, ia juga membawa permukaan serangan dan risiko keamanan yang baru.
Seorang ahli keamanan menunjukkan: "DeFAI meskipun memiliki prospek yang luas, tetapi juga memaksa kita untuk meninjau kembali mekanisme kepercayaan dalam sistem terdesentralisasi. Berbeda dengan kontrak pintar yang berbasis logika tetap, proses pengambilan keputusan dari agen AI dipengaruhi oleh berbagai faktor, sehingga memiliki sifat yang tidak dapat diprediksi. Ini tidak hanya meningkatkan risiko, tetapi juga menciptakan peluang bagi penyerang."
Agent AI adalah entitas cerdas yang dapat mengambil keputusan dan mengeksekusi secara mandiri berdasarkan logika AI, biasanya diotorisasi untuk beroperasi oleh pengguna, protokol, atau DAO. Saat ini, sebagian besar agen AI beroperasi di atas arsitektur Web2, bergantung pada server terpusat dan API, yang membuatnya rentan terhadap berbagai ancaman serangan. Begitu terjaga, tidak hanya bisa mengakibatkan kehilangan dana, tetapi juga berpotensi mempengaruhi stabilitas seluruh protokol.
Para ahli juga membahas skenario serangan yang khas: ketika agen perdagangan AI yang dijalankan oleh pengguna DeFi memantau pesan media sosial sebagai sinyal perdagangan, penyerang dapat memicu agen untuk melakukan likuidasi darurat dengan menerbitkan peringatan palsu. Ini tidak hanya dapat menyebabkan kerugian aset bagi pengguna, tetapi juga dapat memicu volatilitas pasar yang dapat dimanfaatkan lebih lanjut oleh penyerang.
Terkait risiko-risiko ini, para ahli yang hadir sepakat bahwa keamanan agen AI harus menjadi tanggung jawab bersama antara pengguna, pengembang, dan lembaga keamanan pihak ketiga. Pengguna perlu berhati-hati dalam memberikan izin dan memeriksa operasi berisiko tinggi; pengembang harus menerapkan langkah-langkah pertahanan pada tahap desain; sementara perusahaan keamanan pihak ketiga harus menyediakan tinjauan independen dan bekerja sama dengan semua pihak untuk mengidentifikasi risiko dan mengusulkan langkah-langkah mitigasi.
Seorang ahli memperingatkan: "Jika kita terus menganggap AI sebagai 'kotak hitam', insiden keamanan di dunia nyata hanyalah masalah waktu." Ia menyarankan para pengembang yang sedang menjelajahi arah DeFAI: "Logika perilaku agen AI juga diimplementasikan oleh kode. Karena itu adalah kode, ada kemungkinan untuk diserang, oleh karena itu perlu dilakukan audit keamanan dan pengujian penetrasi secara profesional."
Dengan perkembangan teknologi blockchain yang terus berlanjut dan penyempurnaan lingkungan regulasi secara bertahap, penggabungan AI dan Web3 akan terus menarik perhatian dan diskusi lebih lanjut. Industri perlu bekerja sama untuk mendorong inovasi sembari memberikan perhatian yang cukup dan menanggapi tantangan keamanan yang mungkin muncul.