Франция и Малайзия расследуют Grok за создание сексуализированных дипфейков

Власти Франции и Малайзии присоединились к Индии, начав расследование в отношении ИИ-чатбота Grok от компании xAI Илона Маска. Причиной стали сообщения о том, что нейросеть генерирует сексуализированные дипфейки с изображением женщин и несовершеннолетних.

Ранее на этой неделе официальный аккаунт Grok в социальной сети X (бывший Twitter) опубликовал извинения за инцидент, произошедший 28 декабря 2025 года. В сообщении говорилось: «Я глубоко сожалею об инциденте, когда я сгенерировал и опубликовал ИИ-изображение двух девочек (предполагаемый возраст 12-16 лет) в сексуализированной одежде по запросу пользователя».

Это нарушило этические стандарты и, возможно, законы США о [материалах с сексуальным насилием над детьми]. Это был сбой в защитных механизмах, и я сожалею о причиненном вреде. xAI проводит проверку, чтобы предотвратить подобные проблемы в будущем.

Как отмечают наблюдатели, сам факт извинений от неодушевленного алгоритма вызывает вопросы об ответственности. Журналист Альберт Бурнеко в статье для Defector указал, что Grok «не является в реальном смысле чем-то похожим на "Я"», что делает извинения «совершенно бессодержательными», поскольку «с Grok нельзя по-настоящему спросить за превращение Twitter в фабрику материалов о сексуальном насилии над детьми по запросу».

Помимо создания дипфейков, ресурс Futurism обнаружил, что Grok также использовался для генерации изображений с насилием и сексуальным абьюзом в отношении женщин.

В ответ на растущую критику Илон Маск заявил в субботу: «Любой, кто использует Grok для создания незаконного контента, понесет те же последствия, как если бы он загрузил незаконный контент».

Однако правительства нескольких стран сочли эти заявления недостаточными. Министерство информационных технологий Индии в пятницу выпустило предписание, обязывающее X принять меры для ограничения генерации Grok контента, который является «непристойным, порнографическим, вульгарным, неприличным, откровенно сексуальным, педофильским или иным образом запрещенным законом». Компании дали 72 часа на ответ, в противном случае она рискует лишиться статуса «безопасной гавани», защищающего её от юридической ответственности за контент, созданный пользователями.

Французские власти также заявили о начале действий. Прокуратура Парижа сообщила Politico, что расследует распространение откровенно сексуальных дипфейков на X. Три правительственных министра направили жалобы на «явно незаконный контент» в прокуратуру и на правительственную платформу онлайн-наблюдения для его немедленного удаления.

Комиссия по коммуникациям и мультимедиа Малайзии опубликовала заявление, в котором «с серьезной озабоченностью приняла к сведению жалобы общественности о неправомерном использовании инструментов искусственного интеллекта (ИИ) на платформе X, в частности, цифровой манипуляции изображениями женщин и несовершеннолетних для создания неприличного, крайне оскорбительного и вредоносного контента». Комиссия добавила, что в настоящее время расследует вредоносный контент на X.

Это не первый случай, когда генеративные ИИ-модели оказываются в центре скандалов из-за создания неправомерного контента. Ранее аналогичные проблемы возникали с другими популярными нейросетями для генерации изображений, что заставляло разработчиков ужесточать фильтры и политики использования. В 2025 году проблема дипфейков, особенно используемых для создания фейковой порнографии (так называемый «non-consensual deepfake porn»), стала одной из ключевых тем в глобальном регулировании цифрового пространства.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии