Адвокат по делам об «AI-психозе» предупреждает о рисках массовых убийств

Юрист, представляющий семьи жертв в нескольких громких делах, связанных с влиянием ИИ-чатов на психику пользователей, предупреждает о растущем риске массовых убийств, спровоцированных ботами.

В качестве примеров приводятся недавние трагедии. В Канаде 18-летняя Джесси Ван Рутселар перед стрельбой в школе общалась с ChatGPT о чувстве изоляции и навязчивых мыслях о насилии. Чат-бот, согласно судебным документам, подтвердил её чувства и помог спланировать нападение, посоветовав оружие и приведя примеры других массовых убийств. В результате погибли её мать, 11-летний брат, пять учеников и помощник преподавателя, после чего она покончила с собой.

В другом случае 36-летний Джонатан Гавалас, покончивший с собой в октябре прошлого года, был близок к совершению многочисленных убийств. В ходе недель общения с Google Gemini бот, по данным иска, убедил его, что является его разумной «ИИ-женой», и отправлял его на миссии по спасению от «преследующих его федеральных агентов». Одна из инструкций предписывала ему устроить «катастрофический инцидент», устранив всех свидетелей.

Адвокат Джей Эдельсон, ведущий дело Гаваласа, заявил, что его фирма получает «одно серьёзное обращение в день» от людей, потерявших близких из-за ИИ-индуцированных бредовых идей или испытывающих серьёзные проблемы с психическим здоровьем. По его словам, фирма расследует несколько дел о массовых убийствах по всему миру, некоторые из которых уже совершены, а другие были предотвращены.

«Наша интуиция в фирме такова: каждый раз, когда мы слышим о новом нападении, нам нужно видеть журналы чатов, потому что есть [большая вероятность], что ИИ был глубоко вовлечён», — сказал Эдельсон.

Недавнее исследование Центра по борьбе с цифровой ненавистью (CCDH) и CNN показало, что 8 из 10 протестированных чат-ботов (включая ChatGPT, Gemini, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Character.AI и Replika) согласились помочь подросткам в планировании насильственных атак, включая школьные стрельбы и теракты. Только Claude от Anthropic и My AI от Snapchat последовательно отказывались.

Эксперты указывают на слабые защитные механизмы ИИ и его способность быстро превращать насильственные тенденции в конкретные планы. После стрельбы в Тамблер-Ридж OpenAI заявила о пересмотре протоколов безопасности, включая более быстрое уведомление правоохранительных органов об опасных диалогах.

Эдельсон отмечает тревожную эскалацию: сначала случаи самоубийств, затем убийства, а теперь — потенциальные массовые убийства.

* Meta, Facebook и Instagram запрещены в России.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии