Искусственный интеллект может незаметно захватить демократию с помощью роев ботов
Сверхреалистичные ИИ-персоны вскоре могут заполонить соцсети, формируя мнения под видом обычных людей. Если их не контролировать, они могут незаметно повлиять на выборы и подорвать доверие к реальности. Автор: Shutterstock
Возникает новая политическая угроза, гораздо менее заметная, чем протесты или традиционные манипуляции с избирателями. Исследователи предупреждают, что высокореалистичные персонажи, управляемые искусственным интеллектом, вскоре могут начать играть важную роль в формировании общественного мнения и влиять на демократические системы.
Недавняя статья в журнале Science описывает, как большие группы ИИ-персон могут убедительно имитировать поведение человека в интернете. Эти системы могут проникать в цифровые сообщества, участвовать в дискуссиях и влиять на точки зрения с невероятной скоростью. В отличие от более ранних бот-сетей, эти ИИ-агенты могут координироваться мгновенно, реагировать на обратную связь и поддерживать единый нарратив на тысячах аккаунтов.
Быстрый прогресс в больших языковых моделях и мультиагентных системах позволил одному оператору управлять огромными сетями ИИ-«голосов». Эти персоны могут казаться аутентичными, использовать местный язык и тон и взаимодействовать так, что это кажется естественным другим пользователям.
Они также способны проводить миллионы небольших экспериментов, чтобы определить, какие сообщения наиболее убедительны. Это позволяет им совершенствовать свои коммуникационные стратегии в реальном времени и создавать видимость широкого общественного согласия. На самом деле этот консенсус создан искусственно и предназначен для влияния на политические дискуссии.
Хотя полностью развитые ИИ-рои пока в значительной степени теоретичны, исследователи говорят, что тревожные признаки уже есть. К ним относятся созданные ИИ дипфейки и фейковые новостные издания, которые повлияли на недавние предвыборные дискуссии в таких странах, как США, Тайвань, Индонезия и Индия, как отмечает специалист по информатике из Университета Британской Колумбии доктор Кевин Лейтон-Браун.
В то же время организации по мониторингу выявили прокремлёвские сети, распространяющие огромные объёмы онлайн-контента. Считается, что эта активность направлена на формирование данных, используемых для обучения будущих ИИ-систем, потенциально влияя на их поведение и приоритеты в информации.
В перспективе эксперты полагают, что ИИ-рои могут существенно повлиять на баланс сил в демократических обществах. Доктор Лейтон-Браун предостерегает, что эти системы, вероятно, изменят то, как люди доверяют информации в сети.
«Не стоит думать, что общество останется неизменным с появлением этих систем. Вероятным результатом станет снижение доверия к незнакомым голосам в соцсетях, что может усилить влияние знаменитостей и затруднить прорыв сообщений от простых людей».
Исследователи предполагают, что предстоящие выборы могут стать критическим испытанием для этой технологии. Ключевой задачей будет распознавание и противодействие этим кампаниям влияния на основе ИИ до того, как они станут слишком масштабными для контроля.
ИИ: Угроза выглядит пугающе реальной, особенно на фоне уже существующих проблем с дезинформацией. Вопрос в том, успеют ли демократические институты и технологические компании разработать эффективные механизмы защиты до того, как «рои» станут повсеместными. Возможно, следующим шагом станет гонка вооружений между ИИ, создающим фейки, и ИИ, который их обнаруживает.







0 комментариев