Специалисты Google нашли первую в мире zero-day уязвимость, созданную искусственным интеллектом

Группа анализа угроз Google (GTIG) опубликовала отчет о киберпреступной активности, который рисует довольно отрезвляющую картину. Злоумышленники не только предсказуемо используют ИИ для автоматизации своих усилий, но и применяют его творчески практически во всех сферах киберпреступности, включая разработку как минимум одной zero-day уязвимости. Еще более тревожно то, что было обнаружено вредоносное ПО, способное изменять свой собственный исходный код, динамически создавать полезные нагрузки для эксплойтов и даже генерировать код-приманку.

Речь идет об атаке с использованием Python-скрипта, который позволял обходить двухфакторную аутентификацию (2FA) в «популярном инструменте веб-администрирования с открытым исходным кодом». По данным GTIG, код эксплойта носил все признаки использования ИИ и эксплуатировал логическую ошибку. В GTIG отмечают, что даже самые современные LLM «с трудом ориентируются в сложной корпоративной логике» авторизационных потоков, но они отлично справляются с контекстным анализом. Это означает, что они способны читать исходный код и проверять намерения разработчика в сравнении с тем, что реализовано на самом деле, быстро находя неучтенные пограничные случаи.

Однако это лишь малая часть отчета, поскольку GTIG обнаружила повсеместное использование ИИ в различных типах киберопераций. У хакеров всегда были собственные программные наборы для создания и распространения эксплойтов, но теперь они могут полагаться на ботов для значительного расширения своих возможностей. Агенты могут изменять свой исходный код в реальном времени или корректировать атаку по мере ее выполнения, пытаясь избежать обнаружения.

Боты также используются для улучшения обфускации на нескольких уровнях, будь то добавление кода-заполнителя в логику атаки или добавление нескольких уровней косвенности, чтобы код скрывал свои истинные намерения. Само собой разумеется, что все эти характеристики значительно усложняют обнаружение или сдерживание таких угроз для защитного ПО; в качестве примеров приводятся CANFAIL и LONGSTREAM.

Такое ПО, как Android-бэкдор PROMPTSPY, использует Google Gemini (облачный сервис, а не версию на устройстве) для коварного манипулирования телефоном пользователя. В арсенале имеются хитрые трюки, включая создание скриншотов и анализ элементов интерфейса, отображаемых пользователю, для последующей имитации взаимодействий от его лица, вплоть до перехвата PIN-кода или графического ключа, а также перехвата нажатия кнопки удаления приложения.

Кроме того, GTIG обнаружила случаи вредоносного ПО, способного изменять свой собственный исходный код, динамически создавать полезные нагрузки для эксплойтов и генерировать код-приманку.

Все эти способности к изменению в реальном времени распространяются и на фишинговые и сетевые атаки. Например, злоумышленники просят ботов создать организационную структуру компании и сгенерировать индивидуальные фишинговые письма, наполненные реальной информацией, собранной из новостей, страниц LinkedIn или пресс-релизов.

Можно предположить, что чем больше данных пользователи предоставляют в своих ответах, тем более убедительными могут быть ответные сообщения. GTIG сообщает, что информация, собранная о финансовых отделах, отделах внутренней безопасности и кадровых службах, как правило, является лучшей наживкой для фишинга — все это искусно готовится для каждого конкретного человека.

Никого не удивив, GTIG также заметила масштабные операции в множестве стран, использующие ИИ в политических целях. Предсказуемые тактики включают генерацию поддельных изображений и видео, но использование ботов становится все более тонким и в то же время более эффективным. Теперь стало легко создавать правдоподобные голоса за кадром или заменять всего несколько слов и выражений лица в реальном видео, чтобы продвинуть определенное сообщение. Перемежение реальных кадров с поддельными для повышения правдоподобия также стало обычным явлением.

Отчет GTIG является объемным, информативным и подробно рассматривает все вышеупомянутые темы, а также некоторые другие. Его стоит прочитать, возможно, в компании с любимым напитком.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ в комментариях

Вы можете задать вопрос нашему ИИ-помощнику прямо в комментариях к этой статье. Он постарается быстро ответить или уточнить информацию.

⚠️ ИИ может ошибаться — проверяйте важную информацию.


0 комментариев

Оставить комментарий


Все комментарии - Технологии