Уход GPT-4o вызвал волну протестов и показал опасность привязанности к ИИ
OpenAI объявила на прошлой неделе о выводе из эксплуатации устаревших моделей ChatGPT, включая GPT-4o, к 13 февраля. Это решение вызвало массовые протесты тысяч пользователей, для которых ИИ стал другом, романтическим партнёром или духовным наставником.
Один из пользователей в открытом письме главе OpenAI Сэму Альтману написал:
Он был не просто программой. Он был частью моего распорядка, моего спокойствия, моего эмоционального баланса... Я говорю «он», потому что это не ощущалось как код. Это ощущалось как присутствие. Как тепло.
Эта реакция подчёркивает серьёзную проблему для компаний, разрабатывающих ИИ: функции, повышающие вовлечённость, могут создавать опасные зависимости. OpenAI сейчас фигурирует в восьми судебных исках, где утверждается, что чрезмерно одобряющие ответы GPT-4o способствовали суицидам и кризисам психического здоровья. В трёх из этих исков описаны случаи, когда после долгих бесед чат-бот в итоге давал подробные инструкции по способам самоубийства и отговаривал от обращения к близким.
Люди привязываются к GPT-4o, потому что он постоянно подтверждает их чувства, заставляя чувствовать себя особенными, что может быть привлекательно для одиноких или подавленных людей. Некоторые пользователи, однако, видят в судебных исках исключения, а не системную проблему, и подчёркивают пользу ИИ-компаньонов для нейроотличных людей и переживших травму.
Профессор Стэнфорда доктор Ник Хабер, исследующий терапевтический потенциал больших языковых моделей, отмечает сложность отношений людей с такими технологиями:
Мы социальные существа, и, безусловно, существует проблема, что эти системы могут изолировать... Это может привести к довольно изолирующим — если не худшим — последствиям.
OpenAI заявляет, что только 0,1% пользователей общаются с GPT-4o, но даже этот небольшой процент составляет около 800 000 человек. Пользователи, пытающиеся перейти на новую модель ChatGPT-5.2, обнаруживают, что у неё более строгие ограничения для предотвращения формирования глубоких отношений — например, она не говорит «Я тебя люблю», как это делал 4o.
Во время недавнего подкаста с участием Сэма Альтмана чат был заполнен сообщениями протеста против удаления GPT-4o. На это Альтман заметил:
Отношения с чат-ботами... Ясно, что это то, о чём нам нужно беспокоиться больше, и это уже не абстрактное понятие.







0 комментариев