ИИ научился убеждать людей в политических вопросах не хуже человека

Новые исследования Стэнфордского университета показывают, что аргументы, сгенерированные искусственным интеллектом, могут быть столь же убедительными, как и написанные людьми. При этом люди более охотно воспринимают контраргументы, когда знают, что их источник — ИИ.

Профессор Робб Виллер и его команда провели три опроса, в которых участники читали сообщения о различных политических вопросах — от запрета курения до контроля над оружием. Сообщения создавались как людьми, так и большими языковыми моделями. Результаты, опубликованные в Nature Communications, показали одинаковую убедительность обоих типов сообщений.

Отдельное исследование профессора маркетинга Закари Тормалы выявило, что знание об источнике сообщения влияет на восприятие. Когда люди считали, что контраргументы исходят от ИИ, а не от человека, они были более открыты к противоположным точкам зрения.

«Когда человек пытается нас в чем-то убедить, мы часто не хотим его слушать, — объясняет Тормала. — Но к ИИ отношение иное: его считают более информированным, объективным и лишенным скрытых мотивов».

Исследователи отмечают двойственность этих результатов. С одной стороны, ИИ может помочь снизить политическую поляризацию, делая людей более восприимчивыми к альтернативным мнениям. С другой — эта же особенность может способствовать распространению дезинформации, если люди будут безоговорочно доверять ИИ-генераторам.

Виллер предупреждает, что в преддверии промежуточных выборов в США в 2026 году злоумышленники могут использовать ИИ для массовой генерации поляризующего контента, что представляет угрозу для демократических процессов.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ в комментариях

Вы можете задать вопрос нашему ИИ-помощнику прямо в комментариях к этой статье. Он постарается быстро ответить или уточнить информацию.

⚠️ ИИ может ошибаться — проверяйте важную информацию.


0 комментариев

Оставить комментарий


Все комментарии - Технологии