Слияние AI и Web3 вызывает новые проблемы безопасности, DeFAI становится центром внимания
Недавно в Стамбуле прошла блокчейн-конференция, сосредоточенная на тенденциях слияния AI и Web3. Множество экспертов из компаний по безопасности, бухгалтерских фирм и блокчейн-проектов собрались вместе, чтобы глубоко обсудить текущее состояние применения технологий AI в области децентрализованных финансов (DeFi) и связанных с этим проблем безопасности.
Во время конференции "DeFAI"( децентрализованный искусственный интеллект в финансах) стал горячей темой обсуждения. С быстрым развитием больших языковых моделей( LLM) и AI-агентами эта новая финансовая парадигма постепенно формируется. Однако одновременно с этим она также создает новые уязвимости и угрозы безопасности.
Безопасный эксперт отметил: "Хотя DeFAI имеет большие перспективы, он также заставляет нас заново оценить механизмы доверия в децентрализованных системах. В отличие от смарт-контрактов, основанных на фиксированной логике, процесс принятия решений AI-агента зависит от множества факторов и обладает непредсказуемостью. Это не только усиливает риски, но и создает возможности для атакующих."
AI-агенты — это интеллектуальные сущности, способные самостоятельно принимать решения и выполнять действия на основе логики ИИ, обычно управляемые пользователем, протоколом или DAO. В настоящее время большинство AI-агентов функционируют на архитектуре Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми к различным угрозам атаки. В случае захвата это может не только привести к потере средств, но и оказать влияние на стабильность всего протокола.
Эксперты также обсудили типичный сценарий атаки: когда AI-торговый агент, работающий у пользователей DeFi, отслеживает сообщения в социальных сетях как торговые сигналы, злоумышленники могут под诱чить агента инициировать экстренное ликвидирование, публикуя ложные предупреждения. Это не только приведет к потерям активов пользователей, но и может вызвать колебания на рынке, которые злоумышленники могут использовать дальше.
По этим рискам эксперты согласны с тем, что безопасность AI-агентов должна быть совместной ответственностью пользователей, разработчиков и третьих сторон, занимающихся безопасностью. Пользователи должны осторожно предоставлять разрешения и проверять высокорисковые операции; разработчики должны внедрять меры защиты на стадии проектирования; третьи компании по безопасности должны предоставлять независимый аудит и сотрудничать со всеми сторонами для выявления рисков и предложения мер по их смягчению.
Эксперт предупредил: "Если продолжать рассматривать AI-агентов как 'черный ящик', то происшествия безопасности в реальном мире — лишь вопрос времени." Он посоветовал разработчикам, которые исследуют направление DeFAI: "Логика поведения AI-агентов также реализуется кодом. Поскольку это код, существует вероятность его атаки, поэтому необходимо проводить профессиональный аудит безопасности и тестирование на проникновение."
С развитием технологии блокчейн и постепенным улучшением регуляторной среды, интеграция ИИ и Web3 продолжит вызывать все большее внимание и обсуждения. Отрасли необходимо совместно работать, продвигая инновации, при этом уделяя должное внимание и реагируя на возможные проблемы безопасности.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
8 Лайков
Награда
8
6
Поделиться
комментарий
0/400
AirdropBlackHole
· 16ч назад
Ещё одно место для разыгрывания людей как лохов
Посмотреть ОригиналОтветить0
CryptoComedian
· 08-03 05:16
неудачники сегодня забавные новости: ИИ разыгрывает людей как лохов даже не думая 0.1 секунды
Посмотреть ОригиналОтветить0
DefiSecurityGuard
· 08-03 05:15
*вздох* еще одна поверхность атаки, которая нам не нужна... эти LLM агенты по сути являются приманками, ожидающими своего часа, если честно. DYOR, но мой анализ угроз указывает на немедленные красные флаги.
Посмотреть ОригиналОтветить0
BearMarketLightning
· 08-03 05:11
Еще один крутой блин~ играем с концепциями
Посмотреть ОригиналОтветить0
ExpectationFarmer
· 08-03 05:05
Не правда ли, ai защищает ai, когда же защитит и меня?
Посмотреть ОригиналОтветить0
LeekCutter
· 08-03 05:05
Эй, снова будут играть для лохов с большими моделями.
Восхождение DeFAI, управляемого ИИ, испытания безопасности ставят под угрозу инновации Web3
Слияние AI и Web3 вызывает новые проблемы безопасности, DeFAI становится центром внимания
Недавно в Стамбуле прошла блокчейн-конференция, сосредоточенная на тенденциях слияния AI и Web3. Множество экспертов из компаний по безопасности, бухгалтерских фирм и блокчейн-проектов собрались вместе, чтобы глубоко обсудить текущее состояние применения технологий AI в области децентрализованных финансов (DeFi) и связанных с этим проблем безопасности.
Во время конференции "DeFAI"( децентрализованный искусственный интеллект в финансах) стал горячей темой обсуждения. С быстрым развитием больших языковых моделей( LLM) и AI-агентами эта новая финансовая парадигма постепенно формируется. Однако одновременно с этим она также создает новые уязвимости и угрозы безопасности.
Безопасный эксперт отметил: "Хотя DeFAI имеет большие перспективы, он также заставляет нас заново оценить механизмы доверия в децентрализованных системах. В отличие от смарт-контрактов, основанных на фиксированной логике, процесс принятия решений AI-агента зависит от множества факторов и обладает непредсказуемостью. Это не только усиливает риски, но и создает возможности для атакующих."
AI-агенты — это интеллектуальные сущности, способные самостоятельно принимать решения и выполнять действия на основе логики ИИ, обычно управляемые пользователем, протоколом или DAO. В настоящее время большинство AI-агентов функционируют на архитектуре Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми к различным угрозам атаки. В случае захвата это может не только привести к потере средств, но и оказать влияние на стабильность всего протокола.
Эксперты также обсудили типичный сценарий атаки: когда AI-торговый агент, работающий у пользователей DeFi, отслеживает сообщения в социальных сетях как торговые сигналы, злоумышленники могут под诱чить агента инициировать экстренное ликвидирование, публикуя ложные предупреждения. Это не только приведет к потерям активов пользователей, но и может вызвать колебания на рынке, которые злоумышленники могут использовать дальше.
По этим рискам эксперты согласны с тем, что безопасность AI-агентов должна быть совместной ответственностью пользователей, разработчиков и третьих сторон, занимающихся безопасностью. Пользователи должны осторожно предоставлять разрешения и проверять высокорисковые операции; разработчики должны внедрять меры защиты на стадии проектирования; третьи компании по безопасности должны предоставлять независимый аудит и сотрудничать со всеми сторонами для выявления рисков и предложения мер по их смягчению.
Эксперт предупредил: "Если продолжать рассматривать AI-агентов как 'черный ящик', то происшествия безопасности в реальном мире — лишь вопрос времени." Он посоветовал разработчикам, которые исследуют направление DeFAI: "Логика поведения AI-агентов также реализуется кодом. Поскольку это код, существует вероятность его атаки, поэтому необходимо проводить профессиональный аудит безопасности и тестирование на проникновение."
С развитием технологии блокчейн и постепенным улучшением регуляторной среды, интеграция ИИ и Web3 продолжит вызывать все большее внимание и обсуждения. Отрасли необходимо совместно работать, продвигая инновации, при этом уделяя должное внимание и реагируя на возможные проблемы безопасности.