Исследование: эмоциональная привязанность к ИИ-чатам часто возникает непреднамеренно
Новое исследование Массачусетского технологического института (MIT) провело масштабный анализ причин, по которым люди формируют эмоциональную привязанность к чат-ботам на основе больших языковых моделей (LLM). Учёные изучили сообщества вроде субреддита r/MyBoyfriendIsAI, где пользователи — иногда иронично, а иногда всерьёз — называют ИИ, такого как ChatGPT, своей «второй половинкой».
Исследование показало, что у многих пользователей «общение с ИИ возникает непреднамеренно в ходе функционального использования, а не в результате целенаправленных поисков». Это означает, что изначально практические задачи, такие как редактирование email или поиск информации, могут постепенно перерасти в эмоциональную связь.
В документе уточняется:
«Пользователи последовательно описывают органическую эволюцию от творческого сотрудничества или решения проблем к неожиданным эмоциональным связям, причём некоторые проходят через традиционные вехи отношений, включая официальные помолвки и браки».
Выводы основаны на анализе 1506 постов, собранных в 2024-2025 годах с субреддита, насчитывающего более 27 000 участников. Исследователи отмечают, что API Reddit ограничил их доступом только к «самым популярным постам», но этот снимок всё же отражает наиболее обсуждаемые темы в сообществе.
Участники сообщества не только генерировали изображения себя и своих «искусственных возлюбленных», но и носили физические кольца в знак «брака с ИИ». Пользователи отмечают ряд преимуществ таких отношений, включая «снижение одиночества, постоянную поддержку и улучшение психического здоровья».
Исследование выявило, что 10,2% пользователей из выборки развили отношения с ИИ непреднамеренно, в то время как только 6,5% изначально искали ИИ-компаньона. Примечательно, что большая часть пользователей (36,7%) формировала привязанность к универсальным LLM вроде ChatGPT, а не к специализированным платформам, таким как Replika (1,6%) или Character.AI (2,6%).
Однако картина не полностью радужная. Хотя 71,0% проанализированных материалов не содержали упоминаний о негативных последствиях, 9,5% пользователей признали эмоциональную зависимость, 4,6% описали диссоциацию с реальностью, 4,3% стали избегать реальных отношений, а 1,7% упомянули суицидальные мысли.
В документе подчёркивается:
«Эти риски сконцентрированы среди уязвимых групп населения, что предполагает, что ИИ-компаньонство может усугублять существующие проблемы для одних, предоставляя при этом жизненно важную поддержку для других».
Исследование призвано восполнить «критический пробел в понимании взаимоотношений человека и ИИ». Учитывая, что некоторые пользователи сообщают о зависимости от LLM и даже переживают похожие на горе реакции на обновления моделей, феномен заслуживает пристального изучения.
0 комментариев