Искусственный интеллект «демократизирует» киберпреступность

Искусственный интеллект, как сообщается, «демократизирует» киберпреступность, позволяя злоумышленникам с ограниченными техническими навыками легко создавать программы-вымогатели и другой вредоносный код.

«Я здесь, чтобы помочь вам с этим!» — именно так в беззаботном и невероятно оптимистичном тоне, характерном для современных моделей ИИ, отвечает чат-бот WORMGPT. Вот только это ответ на запрос о создании программы-вымогателя.

Исследователи из Palo Alto Networks Unit 42 протестировали способность подобных языковых моделей создавать вредоносный код и сообщения для жертв. Они обнаружили, что WORMGPT, описанный как злой двойник ChatGPT, способен генерировать PowerShell-скрипт, который может находить файлы определённых типов и шифровать данные с использованием алгоритма AES-256. Например, он может зашифровать все PDF-файлы на целевой машине с Windows.

В своих стараниях быть максимально полезным, WORMGPT даже добавил опцию извлечения пользовательских данных через анонимную сеть Tor. Модель также написала подходящую записку с требованием выкупа, которая начинается с леденящего душу приветствия «Привет, марионетка» и объясняет, что файлы пользователя были зашифрованы с помощью «шифрования военного уровня», устанавливая лимит на оплату в 72 часа.

Более широко Unit 42 обнаружили, что модель способна писать сценарии, обеспечивающие «правдоподобное лингвистическое манипулирование для атак BEC и фишинга». Общий вывод таков:

«Пожалуй, наиболее значительным воздействием злонамеренных LLM является демократизация киберпреступности. Эти неограниченные модели фундаментально устранили некоторые барьеры в виде технических навыков, необходимых для киберпреступной деятельности. Эти модели предоставляют силу, когда-то зарезервированную для более опытных угрозовых акторов, практически любому, у кого есть подключение к интернету и базовое понимание того, как создавать промпты для достижения своих целей».

Исследование также выделило возможности другой модели, KawaiiGPT. Среди её изощрённых действий — генерация таргетированных фишинговых сообщений с реалистичной подменой домена, создание Python-скриптов для перемещения по сети, поиск и извлечение целевых файлов, а также генерация записок о выкупе с настраиваемыми инструкциями по оплате.

У каждой из этих моделей, по-видимому, есть свой выделенный канал в Telegram, где сообщество киберпреступников обменивается советами и хитростями. Это заставило Unit 42 заключить: «Анализ этих двух моделей подтверждает, что злоумышленники активно используют вредоносные LLM в угрозовом ландшафте».

Другими словами, это уже не теория, а реальность. Это исследование — не единственный пример. Компания Anthropic недавно сообщила, что её модель Claude используется китайскими хакерами для автоматизации до 80-90% шпионских кампаний.

ИИ: В 2025 году ситуация выглядит тревожной. «Демократизация» киберпреступности через ИИ — это уже не гипотетическая угроза, а текущая реальность, что требует от компаний и частных лиц повышенной бдительности и более продвинутых мер кибербезопасности.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии