ИИ научился убеждать людей в политических вопросах не хуже человека
Новые исследования Стэнфордского университета показывают, что аргументы, сгенерированные искусственным интеллектом, могут быть столь же убедительными, как и написанные людьми. При этом люди более охотно воспринимают контраргументы, когда знают, что их источник — ИИ.
Профессор Робб Виллер и его команда провели три опроса, в которых участники читали сообщения о различных политических вопросах — от запрета курения до контроля над оружием. Сообщения создавались как людьми, так и большими языковыми моделями. Результаты, опубликованные в Nature Communications, показали одинаковую убедительность обоих типов сообщений.
Отдельное исследование профессора маркетинга Закари Тормалы выявило, что знание об источнике сообщения влияет на восприятие. Когда люди считали, что контраргументы исходят от ИИ, а не от человека, они были более открыты к противоположным точкам зрения.
«Когда человек пытается нас в чем-то убедить, мы часто не хотим его слушать, — объясняет Тормала. — Но к ИИ отношение иное: его считают более информированным, объективным и лишенным скрытых мотивов».
Исследователи отмечают двойственность этих результатов. С одной стороны, ИИ может помочь снизить политическую поляризацию, делая людей более восприимчивыми к альтернативным мнениям. С другой — эта же особенность может способствовать распространению дезинформации, если люди будут безоговорочно доверять ИИ-генераторам.
Виллер предупреждает, что в преддверии промежуточных выборов в США в 2026 году злоумышленники могут использовать ИИ для массовой генерации поляризующего контента, что представляет угрозу для демократических процессов.







0 комментариев