AI та Web3: Децентралізація штучного інтелекту у фінансах та його безпекові виклики
Нещодавно в Стамбулі відбулася важлива блокчейн-конференція, що зосередилася на тенденціях інтеграції AI та Web3. Ця подія стала важливою платформою для обговорення питань безпеки Web3 цього року. Під час двох круглих столів кілька експертів галузі провели глибоке обговорення стану застосування технології AI у сфері децентралізованих фінансів (DeFi) та викликів безпеки.
З розвитком великих мовних моделей та AI-агентів поступово формується нова фінансова модель — Децентралізація штучного інтелекту у фінансах (DeFAI). Проте це нововведення також призвело до нових загроз безпеці та потенційних ризиків.
Один з керівників безпекової компанії зазначив: "DeFAI, хоча й має великі перспективи, але ми повинні переосмислити механізми довіри у децентралізованих системах. На відміну від традиційних смарт-контрактів, процес прийняття рішень AI-агентів підлягає впливу багатьох факторів і має непередбачуваний характер. Це не лише підвищує ризики, але й надає потенційним зловмисникам можливість для атаки."
AI-агенти по суті є розумними сутностями, які можуть автономно приймати рішення та виконувати дії на основі AI-логіки, зазвичай уповноваженими користувачем, протоколом або децентралізованою автономною організацією (DAO). Серед них AI-торгові роботи є найтиповішим представником. Наразі більшість AI-агентів все ще працюють на Web2-архітектурі, покладаючись на централізовані сервери та API, що робить їх вразливими до різноманітних атак, таких як атаки на введення, маніпуляції моделлю або підробка даних. Як тільки AI-агент буде захоплений, це може призвести не тільки до фінансових втрат, але й вплинути на стабільність всього протоколу.
Експерти також обговорили типовий сценарій атаки: коли AI-торговий агент, що працює у DeFi, моніторить інформацію в соціальних мережах як торгові сигнали, зловмисник може шляхом публікації фальшивих тривог, таких як "певний протокол зазнав атаки", спонукати агента негайно запустити термінове очищення активів. Це не лише призведе до втрати активів користувачів, але й може викликати ринкову волатильність, яку зловмисники можуть використати для здійснення арбітражної торгівлі.
Щодо цих ризиків, учасники конференції одностайно вважають, що безпека AI-агентів повинна бути спільною відповідальністю користувачів, розробників та третіх сторін безпеки. Користувачі повинні чітко розуміти обсяг прав агента, обережно надавати дозволи та уважно слідкувати за операціями з високим ризиком. Розробники повинні впроваджувати заходи захисту на етапі проектування, такі як посилення підказок, ізоляція в пісочниці, обмеження швидкості та логіка відкату. Треті сторони безпеки повинні забезпечити незалежну перевірку поведінки моделей AI-агентів, інфраструктури та способів інтеграції в ланцюг, а також співпрацювати з усіма сторонами для виявлення ризиків та пропозиції заходів щодо їх пом'якшення.
Експерт з безпеки попереджає: "Якщо продовжувати розглядати AI-агентів як 'чорну скриню', то інциденти безпеки в реальному світі – це лише питання часу." Він рекомендує розробникам, які досліджують напрям DeFAI: "Логіка поведінки AI-агентів також реалізується за допомогою коду. Оскільки це код, існує можливість атак, тому необхідно провести професійний аудит безпеки та тестування на проникнення."
З розвитком технологій блокчейн і поступовим вдосконаленням регуляторного середовища, інтеграція AI та Web3 продовжуватиме поглиблюватися, але водночас це також приносить нові виклики безпеці. Галузі потрібно спільно працювати над тим, щоб, сприяючи інноваціям, постійно вдосконалювати заходи безпеки для забезпечення здорового розвитку DeFAI.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
15 лайків
Нагородити
15
4
Поділіться
Прокоментувати
0/400
NervousFingers
· 18год тому
Так складно, не можу грати, не можу грати~
Переглянути оригіналвідповісти на0
ThatsNotARugPull
· 18год тому
Чим більше смажиш, тим більше виникає проблем з безпекою..
Переглянути оригіналвідповісти на0
TokenToaster
· 18год тому
Це всього лише кумедний заголовок, хто знає, той зрозуміє.
Переглянути оригіналвідповісти на0
ETHReserveBank
· 19год тому
Що нічого не сказав, лише скидає провину на користувачів
AI та Web3 інтеграція: виникнення DeFAI приносить нові виклики безпеці
AI та Web3: Децентралізація штучного інтелекту у фінансах та його безпекові виклики
Нещодавно в Стамбулі відбулася важлива блокчейн-конференція, що зосередилася на тенденціях інтеграції AI та Web3. Ця подія стала важливою платформою для обговорення питань безпеки Web3 цього року. Під час двох круглих столів кілька експертів галузі провели глибоке обговорення стану застосування технології AI у сфері децентралізованих фінансів (DeFi) та викликів безпеки.
З розвитком великих мовних моделей та AI-агентів поступово формується нова фінансова модель — Децентралізація штучного інтелекту у фінансах (DeFAI). Проте це нововведення також призвело до нових загроз безпеці та потенційних ризиків.
Один з керівників безпекової компанії зазначив: "DeFAI, хоча й має великі перспективи, але ми повинні переосмислити механізми довіри у децентралізованих системах. На відміну від традиційних смарт-контрактів, процес прийняття рішень AI-агентів підлягає впливу багатьох факторів і має непередбачуваний характер. Це не лише підвищує ризики, але й надає потенційним зловмисникам можливість для атаки."
AI-агенти по суті є розумними сутностями, які можуть автономно приймати рішення та виконувати дії на основі AI-логіки, зазвичай уповноваженими користувачем, протоколом або децентралізованою автономною організацією (DAO). Серед них AI-торгові роботи є найтиповішим представником. Наразі більшість AI-агентів все ще працюють на Web2-архітектурі, покладаючись на централізовані сервери та API, що робить їх вразливими до різноманітних атак, таких як атаки на введення, маніпуляції моделлю або підробка даних. Як тільки AI-агент буде захоплений, це може призвести не тільки до фінансових втрат, але й вплинути на стабільність всього протоколу.
Експерти також обговорили типовий сценарій атаки: коли AI-торговий агент, що працює у DeFi, моніторить інформацію в соціальних мережах як торгові сигнали, зловмисник може шляхом публікації фальшивих тривог, таких як "певний протокол зазнав атаки", спонукати агента негайно запустити термінове очищення активів. Це не лише призведе до втрати активів користувачів, але й може викликати ринкову волатильність, яку зловмисники можуть використати для здійснення арбітражної торгівлі.
Щодо цих ризиків, учасники конференції одностайно вважають, що безпека AI-агентів повинна бути спільною відповідальністю користувачів, розробників та третіх сторін безпеки. Користувачі повинні чітко розуміти обсяг прав агента, обережно надавати дозволи та уважно слідкувати за операціями з високим ризиком. Розробники повинні впроваджувати заходи захисту на етапі проектування, такі як посилення підказок, ізоляція в пісочниці, обмеження швидкості та логіка відкату. Треті сторони безпеки повинні забезпечити незалежну перевірку поведінки моделей AI-агентів, інфраструктури та способів інтеграції в ланцюг, а також співпрацювати з усіма сторонами для виявлення ризиків та пропозиції заходів щодо їх пом'якшення.
Експерт з безпеки попереджає: "Якщо продовжувати розглядати AI-агентів як 'чорну скриню', то інциденти безпеки в реальному світі – це лише питання часу." Він рекомендує розробникам, які досліджують напрям DeFAI: "Логіка поведінки AI-агентів також реалізується за допомогою коду. Оскільки це код, існує можливість атак, тому необхідно провести професійний аудит безпеки та тестування на проникнення."
З розвитком технологій блокчейн і поступовим вдосконаленням регуляторного середовища, інтеграція AI та Web3 продовжуватиме поглиблюватися, але водночас це також приносить нові виклики безпеці. Галузі потрібно спільно працювати над тим, щоб, сприяючи інноваціям, постійно вдосконалювати заходи безпеки для забезпечення здорового розвитку DeFAI.