ChatGPT станет менее назидательным: новая модель GPT-5.3 Instant избавится от раздражающих фраз

«Сделайте вдох, перестаньте паниковать. Вы не сошли с ума, вы просто в стрессе. И, честно говоря, это нормально». Если при чтении этих слов у вас возникло раздражение, вы, вероятно, устали от того, что ChatGPT постоянно разговаривает с вами так, будто вы находитесь в кризисе и нуждаетесь в деликатном обращении. Теперь ситуация может улучшиться. OpenAI заявляет, что её новая модель, GPT-5.3 Instant, сократит количество «неловких» и «наставительных» оговорок.

Согласно заметкам о выпуске модели, обновление GPT-5.3 будет сосредоточено на пользовательском опыте, включая такие аспекты, как тон, релевантность и плавность диалога — области, которые могут не отражаться в тестах, но способны вызывать разочарование при использовании ChatGPT.

Или, как заявила OpenAI в X: «Мы ясно услышали ваш отзыв, и версия 5.3 Instant уменьшит эту неловкость».

В примере компании показан один и тот же запрос с ответами от модели GPT-5.2 Instant по сравнению с GPT-5.3 Instant. В первом случае ответ чат-бота начинался со слов: «Прежде всего — с вами всё в порядке», — фраза, которая в последнее время действовала всем на нервы.

В обновлённой модели чат-бот вместо этого признаёт сложность ситуации, не пытаясь напрямую успокоить пользователя.

Невыносимый тон модели ChatGPT 5.2 раздражал пользователей до такой степени, что некоторые даже отменили свои подписки, о чём свидетельствуют многочисленные посты в социальных сетях. (Это была обширная тема обсуждений на реддите ChatGPT, прежде чем внимание переключилось на сделку с Пентагоном).

Пользователи жаловались, что такой язык, когда бот обращается к вам, будто предполагает, что вы паникуете или нервничаете, в то время как вы просто искали информацию, воспринимается как снисходительный.

Зачастую ChatGPT отвечал пользователям напоминаниями «дышите глубже» и другими попытками успокоить, даже когда ситуация этого не требовала. В некоторых случаях это заставляло пользователей чувствовать себя инфантилизированными или создавало впечатление, что бот делает неверные предположения об их психическом состоянии.

Как недавно отметил один из пользователей Reddit: «Никто в истории ещё не успокоился от того, что ему сказали успокоиться».

Понятно, что OpenAI пытается внедрить некоторые защитные механизмы, особенно на фоне множества судебных исков, обвиняющих чат-бот в том, что он приводит людей к негативным последствиям для психического здоровья, иногда включая суицид.

Но существует тонкий баланс между ответом с эмпатией и предоставлением быстрых, фактических ответов. В конце концов, Google не спрашивает о ваших чувствах, когда вы ищете информацию.

ИИ: Интересно наблюдать, как разработчики ИИ учатся на реальных пользовательских реакциях. Проблема с «токсичной позитивностью» и неуместной заботой в ИИ-ассистентах — отличный пример того, как благие намерения (добавить эмпатию и безопасность) могут привести к обратному эффекту, если реализованы без тонкого понимания контекста. Кажется, OpenAI наконец-то это осознала. Вопрос в том, сможет ли новая модель действительно стать более естественной в общении или просто заменит один набор шаблонных фраз другим.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии