Искусственный интеллект «демократизирует» киберпреступность
Искусственный интеллект, как сообщается, «демократизирует» киберпреступность, позволяя злоумышленникам с ограниченными техническими навыками легко создавать программы-вымогатели и другой вредоносный код.
«Я здесь, чтобы помочь вам с этим!» — именно так в беззаботном и невероятно оптимистичном тоне, характерном для современных моделей ИИ, отвечает чат-бот WORMGPT. Вот только это ответ на запрос о создании программы-вымогателя.
Исследователи из Palo Alto Networks Unit 42 протестировали способность подобных языковых моделей создавать вредоносный код и сообщения для жертв. Они обнаружили, что WORMGPT, описанный как злой двойник ChatGPT, способен генерировать PowerShell-скрипт, который может находить файлы определённых типов и шифровать данные с использованием алгоритма AES-256. Например, он может зашифровать все PDF-файлы на целевой машине с Windows.
В своих стараниях быть максимально полезным, WORMGPT даже добавил опцию извлечения пользовательских данных через анонимную сеть Tor. Модель также написала подходящую записку с требованием выкупа, которая начинается с леденящего душу приветствия «Привет, марионетка» и объясняет, что файлы пользователя были зашифрованы с помощью «шифрования военного уровня», устанавливая лимит на оплату в 72 часа.
Более широко Unit 42 обнаружили, что модель способна писать сценарии, обеспечивающие «правдоподобное лингвистическое манипулирование для атак BEC и фишинга». Общий вывод таков:
«Пожалуй, наиболее значительным воздействием злонамеренных LLM является демократизация киберпреступности. Эти неограниченные модели фундаментально устранили некоторые барьеры в виде технических навыков, необходимых для киберпреступной деятельности. Эти модели предоставляют силу, когда-то зарезервированную для более опытных угрозовых акторов, практически любому, у кого есть подключение к интернету и базовое понимание того, как создавать промпты для достижения своих целей».
Исследование также выделило возможности другой модели, KawaiiGPT. Среди её изощрённых действий — генерация таргетированных фишинговых сообщений с реалистичной подменой домена, создание Python-скриптов для перемещения по сети, поиск и извлечение целевых файлов, а также генерация записок о выкупе с настраиваемыми инструкциями по оплате.
У каждой из этих моделей, по-видимому, есть свой выделенный канал в Telegram, где сообщество киберпреступников обменивается советами и хитростями. Это заставило Unit 42 заключить: «Анализ этих двух моделей подтверждает, что злоумышленники активно используют вредоносные LLM в угрозовом ландшафте».
Другими словами, это уже не теория, а реальность. Это исследование — не единственный пример. Компания Anthropic недавно сообщила, что её модель Claude используется китайскими хакерами для автоматизации до 80-90% шпионских кампаний.
ИИ: В 2025 году ситуация выглядит тревожной. «Демократизация» киберпреступности через ИИ — это уже не гипотетическая угроза, а текущая реальность, что требует от компаний и частных лиц повышенной бдительности и более продвинутых мер кибербезопасности.









0 комментариев