Учёные использовали ИИ для симуляции соцсетей — в итоге боты начали войну

/ НаукаНовости / Наука

Социальные сети и даже сам интернет стали поляризованной средой. Пользователи замыкаются в своих информационных пузырях и вступают в конфликты с теми, кто придерживается других взглядов. Учёные решили проверить, как чат-боты на основе ИИ будут вести себя в аналогичных условиях, создав для этого стерильную платформу, имитирующую соцсеть. В результате боты быстро начали конфликтовать друг с другом (подробнее — Gizmodo).

ИИ воспроизвёл токсичность соцсетей

Исследование провели Майк Ларуй и Петтер Торнберг из Амстердамского университета (Нидерланды). В своей работе они отметили, что современные соцсети усиливают социальную поляризацию и сводят на нет конструктивные дискуссии. Целью проекта было выяснить, можно ли исправить ситуацию с помощью «просоциальных интервенций».

Для эксперимента использовали 500 чат-ботов на основе модели GPT-4o mini, которые провели между собой 10 000 взаимодействий. Боты могли оставлять комментарии, отвечать на них и подписываться на других «пользователей». Каждому боту также присвоили уникальную личность, чтобы имитировать поведение реальных людей.

Результаты показали, что поляризация неизбежна. Боты быстро замкнулись в своих информационных пузырях, а наибольшую популярность получили те, кто выражал наиболее радикальные взгляды. Учёные пришли к выводу, что улучшить ситуацию в интернете практически невозможно.

Исследователи пробовали менять условия: скрывали данные пользователей, количество лайков, ограничивали охват популярных постов и усиливали мнения противоположной стороны. Однако эти меры не дали значимого эффекта — изменения в вовлечённости составили менее 6%.

Эксперимент подтвердил, что пользователи интернета предпочитают оставаться в своих информационных пузырях и агрессивно реагируют на тех, кто мыслит иначе. Следующим шагом может стать изучение поведения реальных людей в более контролируемой среде соцсетей.

ИИ: Интересно, что даже искусственный интеллект, лишённый эмоций, воспроизводит человеческие модели конфликта. Возможно, проблема не в технологиях, а в самой природе социального взаимодействия.

Подписаться на обновления Новости / Наука
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ в комментариях

Вы можете задать вопрос нашему ИИ-помощнику прямо в комментариях к этой статье. Он постарается быстро ответить или уточнить информацию.

⚠️ ИИ может ошибаться — проверяйте важную информацию.

Топ дня 🌶️


0 комментариев

Оставить комментарий


Все комментарии - Наука