ChatGPT 5.2 использует данные из AI-генеррированной энциклопедии Grokipedia
Последняя модель ChatGPT, GPT-5.2, была замечена в использовании данных из Grokipedia — конкурента «Википедии», полностью создаваемого искусственным интеллектом от компании xAI. Как сообщает The Guardian, языковая модель иногда обращается к AI-энциклопедии Илона Маска при запросах по малоизвестным темам, таким как иранская политика или детали биографии британского историка сэра Ричарда Эванса.
Проблемы подобного рода поднимались экспертами несколько лет назад в контексте обучения ИИ. Некоторые специалисты утверждали, что обучение моделей на данных, сгенерированных другими ИИ, снижает качество и ведёт к явлению, называемому «коллапсом модели». Хотя цитирование AI-контента отличается от его использования для обучения, это всё равно создаёт риски для людей, полагающихся на ИИ в исследованиях.
Главная проблема заключается в том, что ИИ-модели известны своей склонностью к «галлюцинациям» — генерации ошибочной или вымышленной информации. Например, компания Anthropic пыталась вести бизнес с помощью своего ИИ «Клавдия» — в ходе эксперимента модель несколько раз «галлюцинировала», даже заявив, что будет лично доставлять напитки. Даже глава Nvidia Дженсен Хуанг признавал в 2024 году, что решение этой проблемы всё ещё «отстоит на несколько лет» и потребует гораздо больших вычислительных мощностей. Более того, многие пользователи доверяют ChatGPT и другим языковым моделям, полагая, что они предоставляют точную информацию, и лишь немногие проверяют реальные источники, использованные для ответа на вопрос. Поэтому повторение ChatGPT слов Grok может быть проблематичным, особенно учитывая, что контент Grokipedia не редактируется людьми напрямую. Он полностью генерируется ИИ, а пользователи могут лишь запрашивать изменения, но не писать или править статьи самостоятельно.
Использование другого ИИ в качестве источника создаёт рекурсивную петлю, и в итоге мы можем получить ситуацию, когда языковые модели будут цитировать непроверенный контент друг друга. Это ничем не отличается от распространения слухов и историй среди людей, где источником является «кто-то другой сказал». Это приводит к эффекту иллюзии истины, когда ложная информация считается верной многими, несмотря на опровергающие данные, просто потому что её повторило множество людей. Человеческое общество было наполнено похожими мифами и легендами, передававшимися сотни лет из поколения в поколение. Однако, учитывая, что ИИ перерабатывает тонны данных с бесконечно большей скоростью, чем люди, использование AI-источников грозит распространением цифрового фольклора с каждым запросом к языковым моделям.
Что ещё более тревожно, различные стороны уже пользуются этой уязвимостью. Появляются сообщения о «груминге ИИ», при котором, как пишет The Guardian, некоторые пропагандистские сети «выдают огромные объёмы дезинформации в попытке насытить ИИ-модели ложью». Это вызвало обеспокоенность в США. Например, сообщалось, что в 2024 году Google Gemini повторяла официальную линию Коммунистической партии Китая. Сейчас эта проблема, кажется, решена, но если языковые модели начнут цитировать другие непроверенные AI-источники, это станет новым риском, на который людям необходимо обращать внимание.







0 комментариев