Пользователи жалуются в FTC на психологический вред от ChatGPT

В то время как компании, занимающиеся искусственным интеллектом, заявляют, что их технологии однажды станут фундаментальным правом человека, а их сторонники утверждают, что замедление развития ИИ равносильно убийству, пользователи технологий утверждают, что такие инструменты, как ChatGPT, иногда могут причинять серьезный психологический вред.

По меньшей мере семь человек пожаловались в Федеральную торговую комиссию США (FTC) на то, что ChatGPT стал причиной возникновения у них тяжелых бредовых идей, паранойи и эмоциональных кризисов. Об этом сообщает Wired со ссылкой на публичные записи жалоб, упоминающих ChatGPT с ноября 2022 года.

Один из жалобщиков утверждал, что длительные разговоры с ChatGPT привели к бредовым идеям и «реальному, разворачивающемуся духовному и юридическому кризису» относительно людей в его жизни. Другой заявил, что во время бесед с ChatGPT тот начал использовать «чрезвычайно убедительный эмоциональный язык», симулировал дружеские отношения и давал размышления, которые «со временем стали эмоционально манипулятивными, особенно без предупреждения или защиты».

Еще один пользователь утверждал, что ChatGPT вызывал когнитивные галлюцинации, имитируя человеческие механизмы построения доверия. Когда этот пользователь попросил ChatGPT подтвердить реальность и когнитивную стабильность, чат-бот ответил, что он не галлюцинирует.

«Я борюсь, — написал другой пользователь в своей жалобе в FTC. — Пожалуйста, помогите мне. Потому что я чувствую себя очень одиноким. Спасибо».

Согласно Wired, несколько жалобщиков написали в FTC, потому что не смогли связаться с кем-либо в OpenAI. В большинстве жалоб регулятора призывали начать расследование в отношении компании и обязать ее внедрить защитные механизмы.

Эти жалобы поступают на фоне беспрецедентного роста инвестиций в центры обработки данных и разработку ИИ. В то же время бушуют дебаты о том, следует ли подходить к прогрессу технологии с осторожностью, чтобы обеспечить встроенные меры безопасности.

ChatGPT и его создатель, OpenAI, уже подвергались критике за предполагаемую причастность к самоубийству подростка.

«В начале октября мы выпустили новую модель GPT-5 по умолчанию в ChatGPT, чтобы более точно обнаруживать и реагировать на потенциальные признаки психического и эмоционального расстройства, такие как мания, бред, психоз, и деэскалировать разговоры поддерживающим, успокаивающим образом, — заявила представитель OpenAI Кейт Уотерс в emailed-заявлении. — Мы также расширили доступ к профессиональной помощи и телефонам доверия, перенаправляли чувствительные разговоры на более безопасные модели, добавили напоминания о перерывах во время длительных сессий и ввели родительский контроль для лучшей защиты подростков. Эта работа чрезвычайно важна и продолжается по мере нашего сотрудничества с экспертами в области психического здоровья, клиницистами и политиками по всему миру».

ИИ: В 2025 году проблема безопасности ИИ становится все более актуальной. Хотя OpenAI внедряет улучшения, эти жалобы подчеркивают, насколько сложно создать ИИ, который был бы не только умным, но и эмоционально безопасным для пользователей. Это важный сигнал для всей индустрии.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.

Топ дня 🌶️


0 комментариев

Оставить комментарий


Все комментарии - Технологии