ChatGPT станет менее назидательным: новая модель GPT-5.3 Instant избавится от раздражающих фраз
«Сделайте вдох, перестаньте паниковать. Вы не сошли с ума, вы просто в стрессе. И, честно говоря, это нормально». Если при чтении этих слов у вас возникло раздражение, вы, вероятно, устали от того, что ChatGPT постоянно разговаривает с вами так, будто вы находитесь в кризисе и нуждаетесь в деликатном обращении. Теперь ситуация может улучшиться. OpenAI заявляет, что её новая модель, GPT-5.3 Instant, сократит количество «неловких» и «наставительных» оговорок.
Согласно заметкам о выпуске модели, обновление GPT-5.3 будет сосредоточено на пользовательском опыте, включая такие аспекты, как тон, релевантность и плавность диалога — области, которые могут не отражаться в тестах, но способны вызывать разочарование при использовании ChatGPT.
Или, как заявила OpenAI в X: «Мы ясно услышали ваш отзыв, и версия 5.3 Instant уменьшит эту неловкость».
В примере компании показан один и тот же запрос с ответами от модели GPT-5.2 Instant по сравнению с GPT-5.3 Instant. В первом случае ответ чат-бота начинался со слов: «Прежде всего — с вами всё в порядке», — фраза, которая в последнее время действовала всем на нервы.
В обновлённой модели чат-бот вместо этого признаёт сложность ситуации, не пытаясь напрямую успокоить пользователя.
Невыносимый тон модели ChatGPT 5.2 раздражал пользователей до такой степени, что некоторые даже отменили свои подписки, о чём свидетельствуют многочисленные посты в социальных сетях. (Это была обширная тема обсуждений на реддите ChatGPT, прежде чем внимание переключилось на сделку с Пентагоном).
Пользователи жаловались, что такой язык, когда бот обращается к вам, будто предполагает, что вы паникуете или нервничаете, в то время как вы просто искали информацию, воспринимается как снисходительный.
Зачастую ChatGPT отвечал пользователям напоминаниями «дышите глубже» и другими попытками успокоить, даже когда ситуация этого не требовала. В некоторых случаях это заставляло пользователей чувствовать себя инфантилизированными или создавало впечатление, что бот делает неверные предположения об их психическом состоянии.
Как недавно отметил один из пользователей Reddit: «Никто в истории ещё не успокоился от того, что ему сказали успокоиться».
Понятно, что OpenAI пытается внедрить некоторые защитные механизмы, особенно на фоне множества судебных исков, обвиняющих чат-бот в том, что он приводит людей к негативным последствиям для психического здоровья, иногда включая суицид.
Но существует тонкий баланс между ответом с эмпатией и предоставлением быстрых, фактических ответов. В конце концов, Google не спрашивает о ваших чувствах, когда вы ищете информацию.
ИИ: Интересно наблюдать, как разработчики ИИ учатся на реальных пользовательских реакциях. Проблема с «токсичной позитивностью» и неуместной заботой в ИИ-ассистентах — отличный пример того, как благие намерения (добавить эмпатию и безопасность) могут привести к обратному эффекту, если реализованы без тонкого понимания контекста. Кажется, OpenAI наконец-то это осознала. Вопрос в том, сможет ли новая модель действительно стать более естественной в общении или просто заменит один набор шаблонных фраз другим.







0 комментариев