29.2 мільйонів доларів США були попереджені інструментом з 47 зірками на GitHub за 12 днів

robot
Генерація анотацій у процесі

2026 рік 20 квітня | 9527TEAM

I. Подія

7 квітня, на GitHub було опубліковано звіт про відкритий вихідний код інструменту аудиту штучного інтелекту.

Цей звіт точно визначив уразливість конфігурації вузла перевірки LayerZero міжланцюгового мосту Kelp DAO 1-із-1. Кількість зірок у звіті — 47.

19 квітня, Kelp DAO зазнав хакерської атаки. Втрати склали 292 мільйони доларів.

Це не технічний провал. Це людський провал.


II. Що сталося за 12 днів

7 квітня, попереджувальний звіт був випущений.

На GitHub, 47 осіб поставили зірки. Мабуть, серед них були дослідники, DeFi-учасники, можливо, й кілька розробників, що уважно слідкували за контрактами Kelp.

А далі?

А далі — нічого.

Звіт не був належним чином оцінений командою Kelp. Не було запущено жодних аварійних процедур. Не було широкого поширення через жоден безпековий поштовий список. Не було висвітлення у провідних медіа.

19 квітня, хакери використали той самий метод і вивели 292 мільйони доларів.

12 днів. Достатньо, щоб зробити багато.

Могла з’явитися група в Telegram. Могло пройти безпекове аудиту. Могло бути призупинено протокол.

Але цього не сталося.


III. Чому ніхто не реагував

Це питання ще складніше, ніж 292 мільйони доларів.

Можливо, причина в тому, що ті, хто бачив цей звіт, не мали достатніх повноважень або впливу, щоб змусити команду Kelp діяти. Це дуже поширено у світі відкритого коду — ти знаходиш вразливість, повідомляєш, але інша сторона не зобов’язана відповідати.

Інша можлива причина: бачили, але не розуміли серйозність цієї уразливості. Проблема конфігурації вузла перевірки LayerZero 1-із-1, з точки зору непрофесіоналів, могла здаватися просто “рекомендацією щодо налаштувань”, а не “червоним сигналом” про необхідність негайної зупинки всіх міжланцюгових операцій.

Ще одна, найжахливіша причина: хтось бачив, мав можливість діяти, але обрав мовчати.

Яка б не була причина, висновок один: у нас є інструменти, дані, попередження, але 292 мільйони доларів все одно зникли.


IV. Це не єдиний випадок

У той самий день, генеральний директор Vercel Гільєрмо Раух опублікував твіт:

Працівники Vercel були атаковані через викрадені cookie, отримані з платформи штучного інтелекту, що дозволило зламати внутрішні права доступу. Хакерська група — дуже професійна. “Я маю сильні підозри, що ця атака була значно прискорена штучним інтелектом.”

Це не інцидент безпеки штучного інтелекту. Це класична атака через викрадені cookie. Але штучний інтелект зробив цю атаку швидшою, дешевшою і важчою для відслідковування.

Думка головного науковця Box Аарона Леві, можливо, дає більш пряме пояснення:

“Інженери, що використовують штучний інтелект, працюють значно продуктивніше, ніж ті, хто його не використовує.”

Коли зловмисники прискорюють атаки за допомогою штучного інтелекту, а захисники ще покладаються на ручну обробку попереджень — ця боротьба з самого початку не є рівною.


V. Коли система попереджень дає збій

Ми живемо у часи, коли попереджень вибухає багато.

На GitHub безліч досліджень безпеки. У Twitter — безліч аналітиків. У блокчейні — безліч інструментів моніторингу. Щодня виявляються вразливості раніше, ніж їх оприлюднюють, обговорюють і публікують.

Але кількість попереджень і кількість тих, що справді обробляються, — між ними прірва.

Ця прірва — не технічна проблема. Це проблема мотиваційної системи.

Дослідник безпеки знаходить уразливість → повідомляє про неї проекту → проект ігнорує → дослідник публічно розкриває → проект реагує, але вже занадто пізно.

Це стандартний сценарій у Web3 безпеці. Щороку він повторюється.

Kelp — лише найновіше ім’я.


VI. Слова головного науковця OpenAI

У той самий день, MAD Podcast опублікував інтерв’ю з головним науковцем OpenAI.

Він сказав фразу, що я багато разів переосмислював:

“Дуже багато розумової роботи буде автоматизовано. Це спричинить великі проблеми управління: чи зможуть штучні інтелектуальні організації, контрольовані кількома людьми, ще називатися ‘компаніями’?”

Він говорив про AI-компанії. Але ця фраза також актуальна для DeFi.

Коли протокол контролює меншість, коли попередження про безпеку ігноруються кількома людьми, коли 292 мільйони доларів можуть зникнути за 12 днів — це не децентралізовані фінанси. Це просто перекладання ризиків централізації на анонімних хакерів.


VII. Чого ми навчилися

По-перше, інструментів недостатньо. Попереджувальний інструмент із 47 зірками на GitHub — це далеко не ефективна система попереджень.

По-друге, мотиваційна система — ключова. Якщо дослідники безпеки не отримують винагороди за виявлення уразливостей, а проєкти ігнорують попередження без наслідків — попереджень буде багато, але їх ніколи не будуть обробляти.

По-третє, штучний інтелект змінює баланс сил у атаках і захисті. Зловмисники прискорюють атаки за допомогою AI, а захисники ще покладаються на ручну роботу. Випадок з 292 мільйонами доларів у Kelp — можливо, лише початок епохи AI-атак.

Зараз — 20 квітня 2026 року.

Наступний 292 мільйони доларів, можливо, вже лежить у якомусь кутку GitHub, чекаючи 48-ї зірки.


Джерела: PANews · Твіт Vercel CEO Guillermo Rauch · Твіт Box CEO Aaron Levie · MAD Podcast Ep84 · Інтерв’ю головного науковця OpenAI

ZRO-6,46%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити