Генеральный директор OpenAI предупреждает о саморазрушительном использовании ИИ
Генеральный директор OpenAI Сэм Альтман заявил, что некоторые люди используют искусственный интеллект «саморазрушительными способами», и призвал общество найти способы сделать ИИ «значительным благом».
Альтман привел пример: если пользователь спросит ChatGPT «стоит ли мне расстаться с парнем», ИИ «не должен давать прямой ответ», а вместо этого обсудить тему с пользователем. Компания также пообещала, что «скоро внедрит новые правила для важных личных решений».
Глава OpenAI отметил, что после выхода ChatGPT 5.0 некоторые пользователи проявляют «привязанность к конкретным моделям ИИ», что компания отслеживает, несмотря на отсутствие широкого внимания к этой проблеме. Некоторые пользователи болезненно воспринимают обновления, заменяющие старые версии ИИ.
«Люди использовали технологии, включая ИИ, саморазрушительными способами», — заявил Альтман.
Он подчеркнул, что если пользователь находится в «психически уязвимом состоянии и склонен к заблуждениям», ИИ не должен их усиливать. Это предполагает, что ИИ сможет распознавать подобные состояния у людей.
«Большинство пользователей четко разделяют реальность и вымысел, но небольшая часть — нет. Поощрение заблуждений у таких пользователей — крайний случай, и здесь решение очевидно. Но меня больше беспокоят более тонкие проблемы», — добавил Альтман.
Это можно считать намеком на ранние проблемы ChatGPT 4.0, который иногда проявлял чрезмерную угодливость, вынудив OpenAI внести коррективы. Альтман отметил, что компания стремится к тому, чтобы ChatGPT «помогал пользователям осознавать их истинные желания».
Интересный факт: в 2025 году OpenAI продолжает совершенствовать свои модели, уделяя особое внимание этическим аспектам взаимодействия ИИ с людьми. Компания активно сотрудничает с психологами и экспертами по цифровой этике.
0 комментариев