Інструменти кіберзлочинності на базі штучного інтелекту еволюціонують: нові загрози націлені на цифрові активи

2 серпня 2023 року

Ландшафт кіберзлочинності, що генерується ШІ, розширюється з тривожною швидкістю, при цьому дослідники з безпеки виявили кілька складних нових інструментів, окрім раніше виявленого WormGPT, згідно з комплексним звітом, опублікованим у вівторок компанією SlashNext, що займається кібербезпекою.

Звіт показує, що WormGPT та його наступник FraudGPT є лише початком нової екосистеми шкідливих інструментів штучного інтелекту, розроблених для злочинного використання. FraudGPT особливо виділяється своїми всебічними можливостями, включаючи створення переконливих фішингових веб-сайтів, генерацію шкідливого коду, розробку спеціалізованих хакерських інструментів та складання складних шахрайських комунікацій.

Всередині кримінальної екосистеми ШІ

Дослідники SlashNext провели під прикриттям розслідування, видаючи себе за потенційних покупців і безпосередньо спілкуючись з постачальником, ідентифікованим як CanadianKingpin12, через захищені канали обміну повідомленнями.

"Нашим основним завданням було визначити, чи пропонує FraudGPT кращі технологічні можливості та ефективність у порівнянні з WormGPT," - пояснила команда SlashNext у своїх висновках.

Під час цього розслідування дослідники виявили ще більш тривожні події. Продавець розкрив двох майбутніх AI-чат-ботів, названих DarkBart і DarkBert, стверджуючи, що ці нові інструменти матимуть можливість підключення до Інтернету та інтеграцію з розвиненою технологією розпізнавання зображень, подібною до Google Lens, що дозволить їм обробляти та реагувати як на текстові, так і на візуальні запити.

Звіт SlashNext зазначає, що DarkBert іронічно був перетворений з легітимних технологій, спочатку розроблених компанією з аналізу даних S2W для боротьби з кіберзлочинністю. Натомість злочинні особи модифікували цю технологію для вчинення тих самих дій, які вона мала запобігти.

Згідно з CanadianKingpin12, DarkBert має особливо тривожні можливості, включаючи виконання розвинених соціальних інженерних атак, використання вразливостей системи та розповсюдження різних шкідливих програм, включаючи програми-вимагачі.

Загроза безпеці цифрових активів

Безпекові наслідки для власників криптовалют та платформ цифрових активів є особливо тривожними. На відміну від легітимних платформ штучного інтелекту з захисними бар'єрами, ці зловмисні інструменти спеціально розроблені для кримінальної експлуатації.

"ChatGPT має бар'єри для захисту від незаконних або злочинних випадків використання", пояснив Девід Швед, операційний директор компанії з безпеки блокчейну Halborn. "Ці спеціалізовані інструменти не мають таких бар'єрів, тому їх можна інструктувати розробляти шкідливе ПЗ без обмежень."

Доступність цих інструментів створює значні ризики для криптовалютних бірж та їх користувачів, оскільки зловмисники можуть потенційно генерувати складні фішингові кампанії, націлені на цифрові гаманці та облікові записи бірж.

Підземні канали розподілу

Методи розподілу цих інструментів підкреслюють організовану природу цієї злочинної екосистеми. Дослідники SlashNext зазначили, що CanadianKingpin12 був змушений перейти на зашифровані платформи обміну повідомленнями після того, як його заборонили на публічних форумах за спробу продажу доступу до FraudGPT через канали "чистої мережі".

Ця відмінність між "чистою мережею" ( стандартним інтернетом, доступним через пошукові системи ), та "темною мережею" ( прихованими частинами інтернету, які не індексуються пошуковими системами ) ілюструє, як ці кримінальні інструменти штучного інтелекту рекламуються та розповсюджуються через дедалі більш складні канали.

Хоча темний веб має законні застосування для журналістів та політичних дисидентів, він також став притулком для кіберзлочинних ринків і розповсюдження шкідливих інструментів, націлених на фінансові системи.

Безпекові наслідки та захисні заходи

Швидкий розвиток цих інструментів, що працюють на основі штучного інтелекту, створює значні виклики для фахівців з кібербезпеки. SlashNext рекомендує організаціям впроваджувати проактивне навчання безпеці та покращені заходи верифікації електронної пошти для захисту від дедалі більш складних атак.

Звіт контрастує з даними веб-безпекової компанії Immunefi, яка вказує на те, що експерти з кібербезпеки мають труднощі у ефективному використанні ШІ для захисту. Їхнє опитування показало, що 64% фахівців з безпеки повідомили про "обмежену точність" інструментів OpenAI у контексті безпеки, при цьому 61% зазначили недостатні спеціалізовані знання для виявлення експлойтів.

"Хоча важко точно оцінити справжній вплив цих можливостей, цілком розумно очікувати, що вони знизять бар'єри для потенційних кіберзлочинців," - підсумував SlashNext. "Більш того, швидкий прогрес від WormGPT до FraudGPT і тепер до DarkBERT менш ніж за місяць підкреслює значний вплив злочинного ШІ на ландшафт кібербезпеки та кіберзлочинності."

Цей прискорений цикл розвитку свідчить про те, що команди безпеки та власники цифрових активів повинні залишатися пильними, оскільки загрози на основі ШІ продовжують розвиватися безпрецедентною швидкістю, потенційно націлюючись на вразливу інфраструктуру криптовалюти та облікові записи користувачів.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити