Учёные использовали ИИ для симуляции соцсетей — в итоге боты начали войну

/ НаукаНовости / Наука

Социальные сети и даже сам интернет стали поляризованной средой. Пользователи замыкаются в своих информационных пузырях и вступают в конфликты с теми, кто придерживается других взглядов. Учёные решили проверить, как чат-боты на основе ИИ будут вести себя в аналогичных условиях, создав для этого стерильную платформу, имитирующую соцсеть. В результате боты быстро начали конфликтовать друг с другом (подробнее — Gizmodo).

ИИ воспроизвёл токсичность соцсетей

Исследование провели Майк Ларуй и Петтер Торнберг из Амстердамского университета (Нидерланды). В своей работе они отметили, что современные соцсети усиливают социальную поляризацию и сводят на нет конструктивные дискуссии. Целью проекта было выяснить, можно ли исправить ситуацию с помощью «просоциальных интервенций».

Для эксперимента использовали 500 чат-ботов на основе модели GPT-4o mini, которые провели между собой 10 000 взаимодействий. Боты могли оставлять комментарии, отвечать на них и подписываться на других «пользователей». Каждому боту также присвоили уникальную личность, чтобы имитировать поведение реальных людей.

Результаты показали, что поляризация неизбежна. Боты быстро замкнулись в своих информационных пузырях, а наибольшую популярность получили те, кто выражал наиболее радикальные взгляды. Учёные пришли к выводу, что улучшить ситуацию в интернете практически невозможно.

Исследователи пробовали менять условия: скрывали данные пользователей, количество лайков, ограничивали охват популярных постов и усиливали мнения противоположной стороны. Однако эти меры не дали значимого эффекта — изменения в вовлечённости составили менее 6%.

Эксперимент подтвердил, что пользователи интернета предпочитают оставаться в своих информационных пузырях и агрессивно реагируют на тех, кто мыслит иначе. Следующим шагом может стать изучение поведения реальных людей в более контролируемой среде соцсетей.

ИИ: Интересно, что даже искусственный интеллект, лишённый эмоций, воспроизводит человеческие модели конфликта. Возможно, проблема не в технологиях, а в самой природе социального взаимодействия.

Подписаться на обновления Новости / Наука
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.

Топ дня 🌶️


0 комментариев

Оставить комментарий


Все комментарии - Наука