Нові виклики безпеки в умовах інтеграції AI та Web3
Нещодавно, Стамбульський тиждень блокчейну (IBW 2025) зосередився на тенденціях інтеграції штучного інтелекту та Web3, ставши важливою платформою для обговорення безпеки Web3 цього року. Під час заходу кілька експертів галузі провели глибокі дискусії про поточний стан застосування технологій ШІ у децентралізованих фінансах (DeFi) та виклики безпеки.
З розвитком великих мовних моделей (LLM) та AI-агентів формується нова фінансова парадигма — децентралізовані фінанси штучного інтелекту (DeFAI). Однак ця трансформація також призводить до нових векторів атак та загроз безпеці.
Дехто з керівників безпеки зазначив: "Хоча DeFAI має великі перспективи, це змушує нас переосмислити механізми довіри в децентралізованих системах. На відміну від смарт-контрактів, які базуються на фіксованій логіці, процес прийняття рішень агентами штучного інтелекту підлягає впливу контексту, часу та навіть історичних взаємодій. Ця непередбачуваність не лише посилює ризики, але й створює можливості для зловмисників."
AI-агенти в основному є інтелектуальними системами, які здатні приймати автономні рішення та виконувати їх на основі логіки ШІ, зазвичай працюють за дозволом користувача, протоколу або DAO. Найяскравішим прикладом є AI торгівельні роботи. На сьогодні більшість AI-агентів працює на основі архітектури Web2, покладаючись на централізовані сервери та API, що робить їх вразливими до атак вставки, маніпуляцій моделлю або спотворення даних. Як тільки їх захоплюють, це може не лише призвести до втрати коштів, але й вплинути на стабільність всього протоколу.
Експерти також обговорили типовий сценарій атаки: коли AI-торговий агент, яким користуються DeFi, моніторить повідомлення в соціальних мережах як торгові сигнали, зловмисник публікує фальшиві тривоги, наприклад, "якийсь протокол піддається атаці", що може спонукати агента негайно розпочати екстрене очищення. Така операція не лише призведе до втрати активів користувача, а й викличе коливання ринку, які зловмисник зможе використати через фронт-ранінг.
Щодо цих ризиків, учасники конференції загалом вважають, що безпека AI-агентів не повинна покладатися лише на одну сторону, а є спільною відповідальністю користувачів, розробників і третіх сторін безпеки.
Користувачі повинні чітко усвідомлювати обсяг прав, наданих агенту, обережно надаючи права, а також звертати увагу на перевірку високих ризиків операцій агента ШІ. Розробники повинні впроваджувати заходи захисту вже на етапі проектування, такі як: зміцнення підказок, ізоляція в пісочниці, обмеження швидкості та логіка відкату тощо. Треті сторони безпеки повинні проводити незалежний аудит поведінки моделей агентів ШІ, інфраструктури та способів інтеграції в блокчейн, а також співпрацювати з розробниками та користувачами для виявлення ризиків та пропозицій щодо їх зменшення.
"Деякий експерт з безпеки застеріг: "Якщо продовжувати вважати AI-агентів 'чорною скринькою', то це лише питання часу, коли в реальному світі станеться аварія." Для розробників, які досліджують напрямок DeFAI, він рекомендує: "Як і в випадку зі смарт-контрактами, логіка поведінки AI-агентів також реалізується за допомогою коду. Оскільки це код, існує можливість атаки, тому необхідно провести професійний аудит безпеки та тестування на проникнення."
Як одна з найвпливовіших блокчейн-подій Європи, IBW залучила понад 15 тисяч учасників, включаючи розробників, проєктні команди, інвесторів та регуляторів з усього світу. Цього року, після того як Комісія з капітальних ринків Туреччини (CMB) офіційно розпочала видачу ліцензій на блокчейн-проєкти, статус IBW у галузі значно підвищився.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
13 лайків
Нагородити
13
8
Поділіться
Прокоментувати
0/400
AllInAlice
· 14год тому
Здається, зараз достатньо мати проект з ШІ, і цього буде достатньо.
Переглянути оригіналвідповісти на0
AirdropSweaterFan
· 08-06 08:26
Непотрібні прикраси, але не можна вивести.
Переглянути оригіналвідповісти на0
AltcoinOracle
· 08-06 07:21
фасцинуюче... мій власний аналіз показує 87.4% кореляцію між вразливостями defai та древніми месопотамськими торговими патернами, чесно кажучи
Переглянути оригіналвідповісти на0
LootboxPhobia
· 08-06 07:19
Цей старт відразу ж веде в яму.
Переглянути оригіналвідповісти на0
BridgeTrustFund
· 08-06 07:17
Безпека завжди спрямована на гаманець.
Переглянути оригіналвідповісти на0
ChainWallflower
· 08-06 07:16
Не так вже й складно, хто знає, що може статися~
Переглянути оригіналвідповісти на0
SchroedingerMiner
· 08-06 07:15
Відчуваю, не слухайте тих експертів, які брешуть. Моя Установка для майнінгу ніколи не має проблем.
Переглянути оригіналвідповісти на0
PaperHandsCriminal
· 08-06 07:01
обдурював людей, як лохів кілька років, а ще граю. Природжений сидіти і чекати закриття всіх позицій.
AI та Web3 інтеграція викликає нові виклики безпеки в Децентралізованих фінансах. Експерти закликають звернути увагу на аудит AI-агентів.
Нові виклики безпеки в умовах інтеграції AI та Web3
Нещодавно, Стамбульський тиждень блокчейну (IBW 2025) зосередився на тенденціях інтеграції штучного інтелекту та Web3, ставши важливою платформою для обговорення безпеки Web3 цього року. Під час заходу кілька експертів галузі провели глибокі дискусії про поточний стан застосування технологій ШІ у децентралізованих фінансах (DeFi) та виклики безпеки.
З розвитком великих мовних моделей (LLM) та AI-агентів формується нова фінансова парадигма — децентралізовані фінанси штучного інтелекту (DeFAI). Однак ця трансформація також призводить до нових векторів атак та загроз безпеці.
Дехто з керівників безпеки зазначив: "Хоча DeFAI має великі перспективи, це змушує нас переосмислити механізми довіри в децентралізованих системах. На відміну від смарт-контрактів, які базуються на фіксованій логіці, процес прийняття рішень агентами штучного інтелекту підлягає впливу контексту, часу та навіть історичних взаємодій. Ця непередбачуваність не лише посилює ризики, але й створює можливості для зловмисників."
AI-агенти в основному є інтелектуальними системами, які здатні приймати автономні рішення та виконувати їх на основі логіки ШІ, зазвичай працюють за дозволом користувача, протоколу або DAO. Найяскравішим прикладом є AI торгівельні роботи. На сьогодні більшість AI-агентів працює на основі архітектури Web2, покладаючись на централізовані сервери та API, що робить їх вразливими до атак вставки, маніпуляцій моделлю або спотворення даних. Як тільки їх захоплюють, це може не лише призвести до втрати коштів, але й вплинути на стабільність всього протоколу.
Експерти також обговорили типовий сценарій атаки: коли AI-торговий агент, яким користуються DeFi, моніторить повідомлення в соціальних мережах як торгові сигнали, зловмисник публікує фальшиві тривоги, наприклад, "якийсь протокол піддається атаці", що може спонукати агента негайно розпочати екстрене очищення. Така операція не лише призведе до втрати активів користувача, а й викличе коливання ринку, які зловмисник зможе використати через фронт-ранінг.
Щодо цих ризиків, учасники конференції загалом вважають, що безпека AI-агентів не повинна покладатися лише на одну сторону, а є спільною відповідальністю користувачів, розробників і третіх сторін безпеки.
Користувачі повинні чітко усвідомлювати обсяг прав, наданих агенту, обережно надаючи права, а також звертати увагу на перевірку високих ризиків операцій агента ШІ. Розробники повинні впроваджувати заходи захисту вже на етапі проектування, такі як: зміцнення підказок, ізоляція в пісочниці, обмеження швидкості та логіка відкату тощо. Треті сторони безпеки повинні проводити незалежний аудит поведінки моделей агентів ШІ, інфраструктури та способів інтеграції в блокчейн, а також співпрацювати з розробниками та користувачами для виявлення ризиків та пропозицій щодо їх зменшення.
"Деякий експерт з безпеки застеріг: "Якщо продовжувати вважати AI-агентів 'чорною скринькою', то це лише питання часу, коли в реальному світі станеться аварія." Для розробників, які досліджують напрямок DeFAI, він рекомендує: "Як і в випадку зі смарт-контрактами, логіка поведінки AI-агентів також реалізується за допомогою коду. Оскільки це код, існує можливість атаки, тому необхідно провести професійний аудит безпеки та тестування на проникнення."
Як одна з найвпливовіших блокчейн-подій Європи, IBW залучила понад 15 тисяч учасників, включаючи розробників, проєктні команди, інвесторів та регуляторів з усього світу. Цього року, після того як Комісія з капітальних ринків Туреччини (CMB) офіційно розпочала видачу ліцензій на блокчейн-проєкти, статус IBW у галузі значно підвищився.