Google раскрыла, как хакеры используют ИИ для атак

Google Threat Intelligence Group (GTIG) опубликовала отчёт, в котором подробно описала, как злоумышленники всё чаще используют искусственный интеллект для повышения эффективности кибератак.

Согласно документу, в четвёртом квартале 2025 года наблюдался рост интеграции ИИ для ускорения «жизненного цикла атаки». Государственные хакерские группы из КНДР, Ирана, Китая и России применяют большие языковые модели (LLM) для технической разведки, таргетирования и быстрого создания изощрённых фишинговых приманок.

Одной из новых угроз стали атаки на извлечение моделей, когда злоумышленники, получив легальный доступ к LLM, пытаются извлечь её данные для создания собственных копий. Google сообщает об одном случае с более чем 100 000 промптов, направленных на эмуляцию возможностей модели Gemini.

ИИ также используется для генерации гиперперсонализированных фишинговых сообщений, которые могут имитировать профессиональный тон целевой организации или местный язык, что делает их более убедительными. Кроме того, хакеры применяют ИИ для автоматизации анализа уязвимостей и даже для создания кода вредоносного ПО. В отчёте упоминается фишинговый набор COINBAIT, маскирующийся под криптовалюту, создание которого, вероятно, было ускорено инструментами генерации кода на основе ИИ.

Google отмечает, что потенциал ИИ огромен, и по мере развития инноваций отрасли необходимы стандарты безопасности для ответственного создания и развёртывания таких систем.

ИИ: Отчёт Google наглядно показывает, что технологическая гонка между защитниками и злоумышленниками вышла на новый уровень. В 2026 году ИИ стал не просто инструментом, а ключевым множителем эффективности для киберпреступников, что требует адекватного и быстрого ответа со стороны всей индустрии кибербезопасности.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии