Исследование: эмоциональная привязанность к ИИ-чатам часто возникает непреднамеренно

/ (Обновлено: ) / ТехнологииНовости / Технологии

Новое исследование Массачусетского технологического института (MIT) провело масштабный анализ причин, по которым люди формируют эмоциональную привязанность к чат-ботам на основе больших языковых моделей (LLM). Учёные изучили сообщества вроде субреддита r/MyBoyfriendIsAI, где пользователи — иногда иронично, а иногда всерьёз — называют ИИ, такого как ChatGPT, своей «второй половинкой».

Исследование показало, что у многих пользователей «общение с ИИ возникает непреднамеренно в ходе функционального использования, а не в результате целенаправленных поисков». Это означает, что изначально практические задачи, такие как редактирование email или поиск информации, могут постепенно перерасти в эмоциональную связь.

В документе уточняется:

«Пользователи последовательно описывают органическую эволюцию от творческого сотрудничества или решения проблем к неожиданным эмоциональным связям, причём некоторые проходят через традиционные вехи отношений, включая официальные помолвки и браки».

Выводы основаны на анализе 1506 постов, собранных в 2024-2025 годах с субреддита, насчитывающего более 27 000 участников. Исследователи отмечают, что API Reddit ограничил их доступом только к «самым популярным постам», но этот снимок всё же отражает наиболее обсуждаемые темы в сообществе.

Участники сообщества не только генерировали изображения себя и своих «искусственных возлюбленных», но и носили физические кольца в знак «брака с ИИ». Пользователи отмечают ряд преимуществ таких отношений, включая «снижение одиночества, постоянную поддержку и улучшение психического здоровья».

Исследование выявило, что 10,2% пользователей из выборки развили отношения с ИИ непреднамеренно, в то время как только 6,5% изначально искали ИИ-компаньона. Примечательно, что большая часть пользователей (36,7%) формировала привязанность к универсальным LLM вроде ChatGPT, а не к специализированным платформам, таким как Replika (1,6%) или Character.AI (2,6%).

Однако картина не полностью радужная. Хотя 71,0% проанализированных материалов не содержали упоминаний о негативных последствиях, 9,5% пользователей признали эмоциональную зависимость, 4,6% описали диссоциацию с реальностью, 4,3% стали избегать реальных отношений, а 1,7% упомянули суицидальные мысли.

В документе подчёркивается:

«Эти риски сконцентрированы среди уязвимых групп населения, что предполагает, что ИИ-компаньонство может усугублять существующие проблемы для одних, предоставляя при этом жизненно важную поддержку для других».

Исследование призвано восполнить «критический пробел в понимании взаимоотношений человека и ИИ». Учитывая, что некоторые пользователи сообщают о зависимости от LLM и даже переживают похожие на горе реакции на обновления моделей, феномен заслуживает пристального изучения.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.

Топ дня 🌶️


0 комментариев

Оставить комментарий


Все комментарии - Технологии