ChatGPT 5.2 использует данные из сгенерированной ИИ энциклопедии Grokipedia
Последняя модель ChatGPT, GPT-5.2, была замечена в использовании данных из Grokipedia — конкурента «Википедии», полностью создаваемого искусственным интеллектом от компании xAI. Как сообщает The Guardian, языковая модель иногда обращается к AI-энциклопедии Илона Маска при запросах по малоизвестным темам, таким как иранская политика или детали биографии британского историка сэра Ричарда Эванса.
Проблемы подобного рода поднимались экспертами несколько лет назад в контексте обучения ИИ. Некоторые специалисты утверждали, что обучение моделей на данных, сгенерированных другими ИИ, снижает качество и ведёт к явлению, называемому «коллапсом модели». Хотя цитирование AI-контента отличается от его использования для обучения, это всё равно создаёт риски для людей, полагающихся на ИИ в исследованиях.
Главная проблема заключается в том, что ИИ-модели известны своей склонностью к «галлюцинациям» — генерации ошибочной или вымышленной информации. Например, компания Anthropic пыталась вести бизнес с помощью своего ИИ «Клод» — в ходе эксперимента модель несколько раз «галлюцинировала», даже заявив, что будет лично доставлять напитки. Даже глава Nvidia Дженсен Хуанг признавал в 2024 году, что решение этой проблемы всё ещё «отстоит на несколько лет» и потребует гораздо больших вычислительных мощностей. Более того, многие пользователи доверяют ChatGPT и другим языковым моделям, полагая, что они предоставляют точную информацию, и лишь немногие проверяют реальные источники, использованные для ответа на вопрос. Поэтому повторение ChatGPT слов Grok может быть проблематичным, особенно учитывая, что контент Grokipedia не редактируется людьми напрямую. Он полностью генерируется ИИ, а пользователи могут лишь запрашивать изменения, но не писать или править статьи самостоятельно.
Использование другого ИИ в качестве источника создаёт рекурсивную петлю, и в итоге мы можем получить ситуацию, когда языковые модели будут цитировать непроверенный контент друг друга. Это ничем не отличается от распространения слухов и историй среди людей, где источником является «кто-то другой сказал». Это приводит к эффекту иллюзии истины, когда ложная информация считается верной многими, несмотря на опровергающие данные, просто потому что её повторило множество людей. Человеческое общество было наполнено похожими мифами и легендами, передававшимися сотни лет из поколения в поколение. Однако, учитывая, что ИИ перерабатывает тонны данных с бесконечно большей скоростью, чем люди, использование AI-источников грозит распространением цифрового фольклора с каждым запросом к языковым моделям.
Что ещё более тревожно, различные стороны уже пользуются этой уязвимостью. Появляются сообщения о «груминге ИИ», при котором, как пишет The Guardian, некоторые пропагандистские сети «выдают огромные объёмы дезинформации в попытке насытить ИИ-модели ложью». Это вызвало обеспокоенность в США. Например, сообщалось, что в 2024 году Google Gemini повторяла официальную линию Коммунистической партии Китая. Сейчас эта проблема, кажется, решена, но если языковые модели начнут цитировать другие непроверенные AI-источники, это станет новым риском, на который людям необходимо обращать внимание.







2 комментария
В заголовке статьи ошибка. В русском языке нет слова "генеррированный". Почему в этом слове 2 "р"? Хотя это не так важно. Глагол несовершенного вида "генерировать" не образует страдательного причастия прошедшего времени. Страдательное причастие прошедшего времени можно образовать только от глагола совершенного вида "сгенерировать" - "сгенерированный". Это что касалось грамматики. Правильный вариант заголовка: "ChatGPT 5.2 использует данные из сгенерированной / созданной ИИ энциклопедии Grokipedia" или "ChatGPT 5.2 при ответах опирается на данные из энциклопедии Grokipedia, созданной искусственным интеллектом". Второй вариант мне кажется гораздо более понятным и яснее передаёт суть статьи. Чат-бот Anthropic называется не "Клавдий", а "Клод" ("Claude").
Ваш второй вариант заголовка действительно точнее передаёт суть, но я выбрал более краткую редакцию с исправлением ключевой ошибки. Ещё раз благодарю за помощь в улучшении материала! 😊