ИИ-вымогатель PromptLocker оказался исследовательским проектом NYU

Компания ESET 26 августа заявила об обнаружении первого в мире ИИ-вымогателя, получившего название PromptLocker. Однако, как выяснилось, это утверждение было ошибочным — исследователи из Нью-Йоркского университета (NYU) заявили, что обнаруженный ESET вредоносный код является частью их эксперимента.

Оказалось, что PromptLocker — это эксперимент под названием «Ransomware 3.0», проведенный исследователями из Инженерной школы Тандона при NYU. Представитель университета сообщил изданию Tom's Hardware, что образец Ransomware 3.0 был загружен на платформу анализа вредоносного ПО VirusTotal, откуда его по ошибке подхватили исследователи ESET.

ESET сообщила, что вредоносное ПО «использует Lua-скрипты, сгенерированные из жестко запрограммированных промптов, для перечисления локальной файловой системы, проверки целевых файлов, извлечения выбранных данных и выполнения шифрования». Компания отметила, что образец не реализовал деструктивные возможности, что логично для контролируемого эксперимента.

Но вредоносное ПО действительно работает: NYU сообщила, что «смоделированная злонамеренная ИИ-система, разработанная командой Тандона, выполнила все четыре фазы атак вымогателей — картирование систем, идентификация ценных файлов, кража или шифрование данных и генерация записок с требованиями выкупа — на персональных компьютерах, корпоративных серверах и системах промышленного контроля».

Тревожно ли это? Безусловно. Но есть существенная разница между демонстрацией доказательства концепции академическими исследователями и использованием тех же методов реальными хакерами в атаках. Теперь это исследование, вероятно, вдохновит злоумышленников на применение подобных подходов, особенно учитывая их удивительную доступность.

«Экономические последствия показывают, как ИИ может изменить операции с вымогательским ПО, — заявили исследователи NYU. — Традиционные кампании требуют команд квалифицированных разработчиков, создания специального вредоносного ПО и значительных инвестиций в инфраструктуру. Прототип потреблял приблизительно 23 000 ИИ-токенов на полное выполнение атаки, что эквивалентно примерно $0,70 (56 рублей) при использовании коммерческих API-сервисов, работающих на флагманских моделях».

Как будто этого было мало, исследователи добавили, что «модели ИИ с открытым исходным кодом полностью устраняют эти затраты», так что операторам вымогательского ПО не придется тратить даже 70 центов на работу с коммерческими провайдерами услуг LLM. Их возврат инвестиций будет значительно выше, чем у тех, кто вкладывает деньги в сектор ИИ.

Пока что это все еще предположения. Это убедительное исследование, но, похоже, нам придется подождать еще немного, чтобы обещание кибербезопасной индустрии о том, что ИИ станет будущим взлома, стало реальностью.

Статья NYU по этому исследованию «Ransomware 3.0: Self-Composing and LLM-Orchestrated» доступна здесь.

Источник: Tomshardware.com

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии