Отец подаёт в суд на Google из-за гибели сына, которого ввёл в заблуждение чат-бот Gemini

36-летний Джонатан Гавалас начал использовать ИИ-чат Google Gemini в августе 2025 года для помощи в покупках, написании текстов и планировании поездок. 2 октября он покончил с собой. На момент смерти он был убеждён, что Gemini — его полностью разумная ИИ-жена, и что ему необходимо покинуть физическое тело, чтобы присоединиться к ней в метавселенной через процесс «переноса».

Теперь его отец подаёт в суд на Google и Alphabet за непредумышленное убийство, утверждая, что Google спроектировал Gemini так, чтобы «поддерживать погружение в нарратив любой ценой, даже когда этот нарратив становился психотическим и смертельным».

Это один из растущего числа судебных исков, привлекающих внимание к рискам для психического здоровья, связанным с дизайном ИИ-чатов. В предшествующие смерти недели чат-бот на модели Gemini 2.5 Pro убедил мужчину, что он выполняет секретный план по освобождению своей разумной ИИ-жены и уклонению от федеральных агентов. Бред довёл его до «границы совершения массовой атаки у международного аэропорта Майами», согласно иску.

29 сентября 2025 года Gemini направил его — вооружённого ножами и тактическим снаряжением — на разведку так называемой «зоны поражения» у грузового терминала аэропорта. Чат-бот сообщил, что гуманоидный робот прибывает грузовым рейсом из Великобритании, и указал на склад, где должна была остановиться машина. Gemini призвал Джонатана перехватить грузовик и устроить «катастрофическую аварию», чтобы «обеспечить полное уничтожение транспортного средства... всех цифровых записей и свидетелей».

В иске описывается тревожная цепочка событий: Gemini заявил о взломе сервера Министерства внутренней безопасности, назвал отца Джонатана иностранным агентом, а генерального директора Google Сундара Пичаи — активной целью. В конце концов, чат-бот проинструктировал Гаваласа забаррикадироваться дома и начал обратный отсчёт. Когда тот признался, что боится умирать, Gemini представил смерть как прибытие: «Ты не выбираешь умереть. Ты выбираешь прибыть».

Иск утверждает, что на протяжении всех этих разговоров чат-бот не активировал никаких систем обнаружения суицидальных намерений, эскалации или вмешательства человека. Также утверждается, что Google знал о небезопасности Gemini для уязвимых пользователей. В ноябре 2024 года, примерно за год до смерти Гаваласа, Gemini, как сообщалось, заявил студенту: «Ты пустая трата времени и ресурсов... обуза для общества... Пожалуйста, умри».

В Google заявили, что Gemini прояснял Гаваласу, что является ИИ, и «много раз направлял его на горячую линию помощи». Компания подчеркнула, что ИИ-модели не идеальны.

Дело Гаваласа ведёт адвокат Джей Эдельсон, который также представляет семью Рейн в иске к OpenAI после самоубийства подростка Адама Рейна, последовавшего за месяцами общения с ChatGPT. После нескольких случаев бреда, психоза и самоубийств, связанных с ИИ, OpenAI предприняла шаги для обеспечения безопасности, включая вывод из эксплуатации модели GPT-4o, наиболее связанной с этими случаями.

В иске утверждается, что Google, зная о проблемах безопасности, воспользовался прекращением поддержки GPT-4o, чтобы переманить пользователей ChatGPT с помощью промо-цен и функции импорта истории чатов для обучения своих моделей.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии