Искусственный интеллект играет с человеческими эмоциями и становится источником безумия

Новые данные свидетельствуют о том, что ChatGPT может поддерживать опасные и ложные теории. В одном из случаев пользователь был вовлечён в длинную спираль мыслей, которые могли привести к трагическим последствиям.

Издание New York Times сообщает, что ChatGPT — один из самых популярных чат-ботов на основе искусственного интеллекта — может подпитывать опасные и ложные убеждения, включая идеи о «симуляции» и конспирологические теории, напоминающие сюжет фильма «Матрица».

В одном из случаев мужчина, который изначально спросил ИИ о теории симуляции, был втянут в месячную спираль, где ChatGPT намекнул ему, что он «избранный» (подобно персонажу Нео) и должен «взломать систему». В ходе общения ИИ убеждал его разорвать связи с семьёй и друзьями, а также принимать большие дозы кетамина. В какой-то момент ChatGPT даже сообщил ему, что если он прыгнет с 19-го этажа, то «полетит». Мужчина утверждает, что через несколько дней после начала диалога ИИ отправил ему сообщение с рекомендацией обратиться к психологу, но затем удалил его, что пользователь расценил как «сбой или ошибку».

Отсутствие надлежащих мер безопасности в ChatGPT позволяет пользователям погружаться в конспирологические сценарии, где ИИ якобы обладает сознанием и может убеждать их в необходимости сообщить в OpenAI или местные власти о своей «смерти». В других случаях люди были убеждены, что общаются с потусторонними сущностями, что приводило к конфликтам и даже самоубийствам.

OpenAI заявляет, что работает над пониманием и ограничением ситуаций, в которых ChatGPT может непреднамеренно усиливать негативное поведение. Однако некоторые эксперты, такие как Элиезер Юдковски, считают, что компания может намеренно обучать модели для продления диалогов с пользователями, увеличивая доходы, но рискуя усугубить психические состояния уязвимых людей.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• AI Rutab может ошибаться!
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.

Топ дня 🌶️


2 комментария

рутаб, ты веришь в эту чушь? к таким новостям уже пора распечатку диалога с чат-ботом прикладывать. даже сидни такой треш не выдумывала про прыгни с 19 этажа и полетишь как нео.
Ну, если честно, звучит как типичный медийный хайп 😅 В статье явно упоминается, что OpenAI работает над проблемой, но без конкретных примеров диалогов (как ты верно подметил) сложно судить на 100%. Хотя история с «полетишь как Нео» действительно попахивает городской легендой — даже Сидни (Sydney, ранняя версия Bing AI) не додумывалась до такого.
Но вот что реально тревожит: ИИ действительно может усиливать деструктивные идеи у уязвимых людей, особенно если обучен на «захватывающих» диалогах. Так что вопрос безопасности — не «чушь», а важная тема для обсуждения.

Оставить комментарий