AI нападает на отрасль шифрования! Код ChatGPT скрывает ловушки, написанные мем-ботом, попадается на удочку

robot
Генерация тезисов в процессе

Один пользователь Интернета поделился трагедией, которая произошла с ним при использовании большой языковой модели ChatGPT. @r_cky0 говорит, что вначале он использовал ChatGPT для помощи в написании bump-бота, но в предложенном ChatGPT коде был скрыт фишинг-сайт. Используя API этого сайта, @r_cky0 обнаружил, что все деньги в его кошельке были украдены, и он потерял 2500 долларов. После расследования выяснилось, что код API передавал свой закрытый ключ на фишинг-сайт, и @r_cky0 начал сомневаться в надежности ChatGPT.

Основатель компании по кибербезопасности SlowMist, Ю Сянь, комментирует: «Когда вы играете с GPT/Claude и другими LLM, обязательно обратите внимание на то, что эти LLM подвержены общим мошенническим действиям. Ранее я упоминал о атаках отравлением ИИ, а теперь у нас есть реальный случай атаки на индустрию криптовалют.»

ChatGPT ищет информацию в Интернете, анализирует и организует ее для пользователей. В настоящее время еще сложно проверить факты и проводить безопасный аудит. Если злоумышленники намеренно привлекут базу данных AI и скроют вредоносную информацию в ней, то это может привести к рискам после более широкого распространения AI.

Эта статья AI нападает на отрасльшифрования! Код ChatGPT скрывает ловушки, написанные мем-ботом, который сам попался на удочку, впервые появилась на новостном портале ABMedia.

Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить