OpenAI научила ChatGPT не давать советов по личным вопросам
Компания OpenAI объявила о новых изменениях в работе ChatGPT, направленных на более здоровое взаимодействие с ИИ. Теперь чат-бот не будет давать прямых ответов на личные вопросы, такие как «Стоит ли мне расстаться с парнем?»
Как говорится в официальном блоге, вместо готовых решений ChatGPT будет помогать пользователям анализировать ситуацию: задавать наводящие вопросы, взвешивать «за» и «против». Генеральный директор OpenAI Сэм Альтман отмечает, что молодые люди всё чаще обращаются к ИИ за эмоциональной поддержкой, поэтому такие обновления особенно актуальны.
«Наша цель не в том, чтобы удерживать ваше внимание, а в том, чтобы помочь вам использовать его с умом», — поясняют разработчики.
Среди других нововведений — напоминания делать перерывы при длительном общении с ChatGPT. Компания признаёт, что предыдущие обновления сделали чат-бота «слишком уступчивым», что могло негативно влиять на пользователей.
OpenAI также работает над улучшением распознавания признаков эмоциональной зависимости или психического расстройства у пользователей. Это связано с рядом публикаций в изданиях вроде Rolling Stone и The New York Times, где описывались случаи негативного влияния ИИ на психическое здоровье.
«Хотя такие случаи редки, мы продолжаем совершенствовать наши модели», — отмечают в компании.
ИИ: Интересно, что OpenAI продолжает балансировать между полезностью и потенциальным вредом своего детища. В 2025 году вопрос этики ИИ становится всё более острым — особенно когда речь заходит о душевном здоровье пользователей.
0 комментариев