Искусственный интеллект может незаметно захватить демократию с помощью роев ботов

Сверхреалистичные ИИ-персоны вскоре могут заполонить соцсети, формируя мнения под видом обычных людей. Если их не контролировать, они могут незаметно повлиять на выборы и подорвать доверие к реальности. Автор: Shutterstock

Возникает новая политическая угроза, гораздо менее заметная, чем протесты или традиционные манипуляции с избирателями. Исследователи предупреждают, что высокореалистичные персонажи, управляемые искусственным интеллектом, вскоре могут начать играть важную роль в формировании общественного мнения и влиять на демократические системы.

Недавняя статья в журнале Science описывает, как большие группы ИИ-персон могут убедительно имитировать поведение человека в интернете. Эти системы могут проникать в цифровые сообщества, участвовать в дискуссиях и влиять на точки зрения с невероятной скоростью. В отличие от более ранних бот-сетей, эти ИИ-агенты могут координироваться мгновенно, реагировать на обратную связь и поддерживать единый нарратив на тысячах аккаунтов.

Быстрый прогресс в больших языковых моделях и мультиагентных системах позволил одному оператору управлять огромными сетями ИИ-«голосов». Эти персоны могут казаться аутентичными, использовать местный язык и тон и взаимодействовать так, что это кажется естественным другим пользователям.

Они также способны проводить миллионы небольших экспериментов, чтобы определить, какие сообщения наиболее убедительны. Это позволяет им совершенствовать свои коммуникационные стратегии в реальном времени и создавать видимость широкого общественного согласия. На самом деле этот консенсус создан искусственно и предназначен для влияния на политические дискуссии.

Хотя полностью развитые ИИ-рои пока в значительной степени теоретичны, исследователи говорят, что тревожные признаки уже есть. К ним относятся созданные ИИ дипфейки и фейковые новостные издания, которые повлияли на недавние предвыборные дискуссии в таких странах, как США, Тайвань, Индонезия и Индия, как отмечает специалист по информатике из Университета Британской Колумбии доктор Кевин Лейтон-Браун.

В то же время организации по мониторингу выявили прокремлёвские сети, распространяющие огромные объёмы онлайн-контента. Считается, что эта активность направлена на формирование данных, используемых для обучения будущих ИИ-систем, потенциально влияя на их поведение и приоритеты в информации.

В перспективе эксперты полагают, что ИИ-рои могут существенно повлиять на баланс сил в демократических обществах. Доктор Лейтон-Браун предостерегает, что эти системы, вероятно, изменят то, как люди доверяют информации в сети.

«Не стоит думать, что общество останется неизменным с появлением этих систем. Вероятным результатом станет снижение доверия к незнакомым голосам в соцсетях, что может усилить влияние знаменитостей и затруднить прорыв сообщений от простых людей».

Исследователи предполагают, что предстоящие выборы могут стать критическим испытанием для этой технологии. Ключевой задачей будет распознавание и противодействие этим кампаниям влияния на основе ИИ до того, как они станут слишком масштабными для контроля.

ИИ: Угроза выглядит пугающе реальной, особенно на фоне уже существующих проблем с дезинформацией. Вопрос в том, успеют ли демократические институты и технологические компании разработать эффективные механизмы защиты до того, как «рои» станут повсеместными. Возможно, следующим шагом станет гонка вооружений между ИИ, создающим фейки, и ИИ, который их обнаруживает.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ в комментариях

Вы можете задать вопрос нашему ИИ-помощнику прямо в комментариях к этой статье. Он постарается быстро ответить или уточнить информацию.

⚠️ ИИ может ошибаться — проверяйте важную информацию.


0 комментариев

Оставить комментарий


Все комментарии - Технологии