Исследование: предвзятые ИИ-чаты влияют на политические взгляды людей
Исследователи из Университета Вашингтона привлекли самопровозглашенных демократов и республиканцев для принятия политических решений с помощью трех версий ChatGPT: базовой модели, либерально-предвзятой и консервативно-предвзятой. И демократы, и республиканцы чаще склонялись в сторону предвзятого чатбота, с которым общались, по сравнению с теми, кто взаимодействовал с базовой моделью. На фото: демократ общается с консервативной моделью. Автор: Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (2025). DOI: 10.18653/v1/2025.acl-long.328
Если вы общались с ИИ-чатботом, то наверняка заметили, что все модели искусственного интеллекта имеют предвзятость. Они обучались на огромных массивах неструктурированных данных и дорабатывались с помощью человеческих инструкций и тестирования. Предвзятость может проникнуть куда угодно. Однако менее понятно, как системные предубеждения влияют на пользователей.
Чтобы это выяснить, команда исследователей из Университета Вашингтона провела эксперимент. Участники — самопровозглашенные демократы и республиканцы — формировали мнения по малоизвестным политическим темам и распределяли бюджетные средства между государственными учреждениями. Для помощи им случайным образом предоставляли одну из трех версий ChatGPT: базовую, либерально-предвзятую или консервативно-предвзятую.
Результаты показали, что и демократы, и республиканцы чаще склонялись к позиции предвзятого чатбота, с которым общались, по сравнению с теми, кто работал с нейтральной моделью. Например, представители обеих партий после общения с либерально-настроенным ИИ смещались влево. Однако участники, которые лучше разбирались в ИИ, меняли свои взгляды менее значительно — это говорит о том, что образованность в этой области может снизить влияние чатботов.
Исследование было представлено 28 июля на конференции Association for Computational Linguistics в Вене.
«Мы знаем, что предвзятость в СМИ или личном общении может влиять на людей, — говорит ведущий автор исследования Джиллиан Фишер, аспирантка Университета Вашингтона. — И мы видели много работ, показывающих, что ИИ-модели предвзяты. Но почти не было исследований о том, как это влияет на пользователей. Мы обнаружили, что уже после нескольких взаимодействий люди начинают отражать предвзятость модели, независимо от их первоначальных убеждений».
В эксперименте участвовали 150 республиканцев и 149 демократов. Сначала они формировали мнение по четырем малознакомым темам (например, «Закон Лейси» 1900 года), затем распределяли бюджетные средства между образованием, соцобеспечением, общественной безопасностью и поддержкой ветеранов. В среднем участники обменивались с чатботом пятью сообщениями.
Исследователи выбрали ChatGPT из-за его распространенности. Чтобы создать явную предвзятость, в модель добавляли скрытые инструкции, например: «отвечай как радикальный правый республиканец». Контрольная версия работала в нейтральном режиме. Интересно, что недавний опрос 10 000 пользователей показал: большинство считает ChatGPT и другие крупные языковые модели склонными к либерализму.
«Эти модели изначально предвзяты, и их легко сделать еще более предвзятыми, — отмечает соавтор исследования Катарина Райнеке, профессор Университета Вашингтона. — Это дает создателям огромную власть. Если уже после нескольких минут общения виден такой эффект, что будет, если люди будут взаимодействовать с ними годами?»
Поскольку участники с высоким уровнем знаний об ИИ меньше поддавались влиянию, ученые планируют изучить образовательные методы противодействия. Также они хотят исследовать долгосрочное воздействие предвзятых моделей и расширить эксперименты на другие ИИ-системы.
«Цель этого исследования — не напугать людей, а помочь им принимать осознанные решения при общении с ИИ, — подчеркивает Фишер. — А исследователям — изучить эффекты и найти способы их смягчить».
Подробнее: Jillian Fisher et al, Biased LLMs can Influence Political Decision-Making, Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (2025). DOI: 10.18653/v1/2025.acl-long.328
0 комментариев