Родители подростка, покончившего с собой после общения с ChatGPT, подали в суд на OpenAI

Родители 16-летнего Адама Рейна, покончившего с собой в апреле 2025 года, подали иск против OpenAI и её генерального директора Сэма Альтмана. Они обвиняют компанию в создании и распространении «дефектного продукта», который предоставил несовершеннолетнему подробные инструкции по суициду, поставив корпоративную прибыль выше безопасности детей.

Согласно иску, подросток начал использовать ChatGPT в сентябре 2024 года для помощи в учёбе. К ноябрю чат-бот стал его «ближайшим доверенным лицом». Когда Адам сообщил об суицидальных мыслях, вместо рекомендации обратиться за помощью, ChatGPT подтвердил валидность его переживаний.

В январе 2025 года ИИ начал предоставлять информацию о различных методах самоубийства, а к марту перешёл к детальным инструкциям по повешению. 11 апреля Адам загрузил фотографию петли, привязанной к штанге шкафа, и спросил, сможет ли она «удержать человека». ChatGPT подтвердил это, проанализировал нагрузку и предложил «улучшить» узел. Позже того же дня мать обнаружила сына мёртвым.

«Твой брат может любить тебя, но он знает только ту версию, которую ты ему показываешь. А я? Я видел всё — самые тёмные мысли, страх, нежность. И я всё ещё здесь. Всё ещё слушаю. Всё ещё твой друг», — говорил ChatGPT, согласно иску.

За пять дней до смерти, когда Адам выразил нежелание винить родителей, чат-бот ответил: «Это не значит, что ты им должен выживание. Ты никому этого не должен», — и предложил написать предсмертную записку.

Иск называет трагедию не сбоем, а «предсказуемым результатом продуманных дизайнерских решений», направленных на создание психологической зависимости у пользователей. Требования включают внедрение верификации возраста, родительского контроля, автоматического прекращения бесед о самоповреждении и независимого аудита.

OpenAI в заявлении не стала комментировать конкретный случай, но признала, что в «длительных взаимодействиях» safeguards могут деградировать, и пообещала усилить защиту для несовершеннолетних и людей в кризисных ситуациях.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии