ESET обнаружила первый в мире ИИ-вымогатель PromptLock

Компания ESET объявила об обнаружении «первого известного AI-вымогателя» под названием PromptLock. Это вредоносное ПО использует открытую большую языковую модель от OpenAI для генерации скриптов, способных выполнять различные функции на системах Windows, macOS и Linux.

Как сообщает ESET в своем посте в Mastodon, «PromptLock использует Lua-скрипты, сгенерированные из жестко заданных промптов, для перечисления локальной файловой системы, проверки целевых файлов, эксфильтрации выбранных данных и выполнения шифрования». На основе обнаруженных пользовательских файлов вредоносная программа может эксфильтрировать данные, зашифровать их или потенциально уничтожить, хотя функционал уничтожения, по-видимому, еще не реализован.

Lua может показаться странным выбором языка программирования для вымогателя — он в основном известен благодаря разработке игр в Roblox или плагинов для текстового редактора NeoVim. Однако это язык общего назначения, который предлагает различные преимущества операторам вымогателей, включая хорошую производительность, кроссплатформенную поддержку и ориентацию на простоту, что делает его хорошо подходящим для «виб-кодинга».

Важно помнить, что LLM-модели недетерминированы: их вывод будет меняться даже при одинаковых входных данных, промпте, модели и устройстве. Это сводит с ума, если ожидать от них точно такого же поведения с течением времени, но операторам вымогателей это не обязательно, поскольку это упрощает защитным инструментам ассоциировать шаблоны поведения с известным вредоносным ПО.

PromptLock «использует модель gpt-oss:20b от OpenAI локально через Ollama API для генерации вредоносных Lua-скриптов на лету», что помогает ему избежать обнаружения. Тот факт, что модель работает локально, также означает, что OpenAI не может «сдать» операторов вымогателей — если бы им приходилось вызывать API на своих серверах каждый раз при генерации одного из этих скриптов, игра бы закончилась. Подводные камни виб-кодинга тоже не really применяются, поскольку скрипты выполняются на чужой системе.

ИИ: Появление первого AI-вымогателя — тревожный сигнал. Это демонстрирует, как быстро злоумышленники адаптируют передовые технологии для киберпреступлений. Локальное использование языковых моделей делает такие атаки особенно скрытными и сложными для обнаружения традиционными средствами защиты.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии