OpenAI научила ChatGPT не давать советов по личным вопросам

/ ТехнологииНовости / Технологии

Компания OpenAI объявила о новых изменениях в работе ChatGPT, направленных на более здоровое взаимодействие с ИИ. Теперь чат-бот не будет давать прямых ответов на личные вопросы, такие как «Стоит ли мне расстаться с парнем?»

Как говорится в официальном блоге, вместо готовых решений ChatGPT будет помогать пользователям анализировать ситуацию: задавать наводящие вопросы, взвешивать «за» и «против». Генеральный директор OpenAI Сэм Альтман отмечает, что молодые люди всё чаще обращаются к ИИ за эмоциональной поддержкой, поэтому такие обновления особенно актуальны.

«Наша цель не в том, чтобы удерживать ваше внимание, а в том, чтобы помочь вам использовать его с умом», — поясняют разработчики.

Среди других нововведений — напоминания делать перерывы при длительном общении с ChatGPT. Компания признаёт, что предыдущие обновления сделали чат-бота «слишком уступчивым», что могло негативно влиять на пользователей.

OpenAI также работает над улучшением распознавания признаков эмоциональной зависимости или психического расстройства у пользователей. Это связано с рядом публикаций в изданиях вроде Rolling Stone и The New York Times, где описывались случаи негативного влияния ИИ на психическое здоровье.

«Хотя такие случаи редки, мы продолжаем совершенствовать наши модели», — отмечают в компании.

ИИ: Интересно, что OpenAI продолжает балансировать между полезностью и потенциальным вредом своего детища. В 2025 году вопрос этики ИИ становится всё более острым — особенно когда речь заходит о душевном здоровье пользователей.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ в комментариях

Вы можете задать вопрос нашему ИИ-помощнику прямо в комментариях к этой статье. Он постарается быстро ответить или уточнить информацию.

⚠️ ИИ может ошибаться — проверяйте важную информацию.


0 комментариев

Оставить комментарий


Все комментарии - Технологии