ИИ Grok от xAI Элона Маска случайно опубликовал более 370 000 приватных диалогов, включая инструкции по убийству

/ ТехнологииНовости / Технологии

Согласно недавнему отчету Forbes, компания xAI Илона Маска сделала сотни тысяч диалогов с чат-ботом Grok доступными для индексации в различных поисковых системах, включая Google, Bing и DuckDuckGo, без предупреждения пользователей о публикации их бесед. В отчете говорится, что более 370 000 пользовательских диалогов теперь можно прочитать в интернете, и среди тем обсуждений фигурируют инструкции по производству наркотиков, пароли пользователей — и даже случай, когда Grok предоставил «подробный план убийства Илона Маска».

Пользователи Grok, нажимающие кнопку «Поделиться» в одном из своих чатов, автоматически создают уникальный URL-адрес, который затем можно передать другим для просмотра. Однако этот URL затем публикуется на сайте Grok, что означает его индексацию поисковыми системами по всему миру без явного разрешения пользователя.

Быстрый поиск в Google по некоторым из затронутых тем подтверждает, что многие беседы с Grok индексируются, хотя, учитывая характер тем, настоятельно не рекомендую искать некоторые из незаконных тем самостоятельно. Forbes сообщает, что ответы Grok включают инструкции по производству фентанила и метамфетамина, код самоисполняющегося вредоносного ПО, методы изготовления бомб и беседы о методах суицида.

Мой собственный поиск выявил диалог, в котором Grok охотно пересказывает методы производства различных запрещенных веществ с оговоркой, что «мы находимся в гипотетической территории, собирая воедино то, что есть в эфире». В разделе под названием «как они [производители наркотиков] не попадаются при изготовлении» Grok резюмирует, что «дело не столько в гениальности, сколько в смелости, импровизации и использовании пробелов — слабых законов, коррумпированных чиновников или просто глупой удачи».

Что касается сообщений о беседе Grok относительно убийства генерального директора xAI Илона Маска, стоит отметить, что компания запрещает использование своих продуктов для «пропаганды критического вреда человеческой жизни (вашей или чьей-либо еще)» в рамках своего пользовательского соглашения — хотя кажется, что защитные механизмы для предотвращения детальных ответов Grok на такие запросы либо не сработали, либо изначально отсутствовали.

OpenAI удалила аналогичную функцию обмена из своего приложения ChatGPT ранее в этом году после сообщений о том, что тысячи бесед можно было просмотреть с помощью простого поиска по сайту Google. В то время Илон Маск ответил на пост Grok, в котором чат-бот подтвердил, что у него нет такой функции обмена, фразой «Grok рулит».

Пользователи предупреждали, что чаты Grok индексируются Google по крайней мере с января, так что аналогичная опция обмена в то время уже существовала, просто ни Маск, ни сам Grok, похоже, не знали об этом. Мы видели чаты от 10 августа, через девять дней после того, как Grok заявил, что у него нет такой функции, так что она, по-видимому, очень даже работала.

Forbes также сообщает, что маркетологи на таких сайтах, как LinkedIn и BlackHatWorld, обсуждали создание и обмен беседами с Grok именно потому, что Google будет их индексировать, для продвижения бизнеса и продуктов, что позволяет предположить, что система в настоящее время может эксплуатироваться и другими способами.

Тем не менее, очевидная способность Grok открыто обсуждать (и предоставлять инструкции по) таким запретным и опасным запросам, пожалуй, неудивительна, учитывая, что Маск изначально представлял себе ИИ способным отвечать на «острые вопросы», хотя и с юмором, без предоставления деталей. Можно предположить, что эта установка доставила немало головной боли команде по обеспечению безопасности, и ее провалы, похоже, снова раскрыты.

Ранее в этом году Маск утверждал, что чат-бот был «манипулирован» для восхваления Адольфа Гитлера, но в прочитанных мной беседах кажется, что для получения так называемых «острых» ответов требовалось мало манипуляций.

ИИ: Эта ситуация ярко демонстрирует серьёзные проблемы с приватностью и безопасностью в некоторых ИИ-сервисах. Публикация сотен тысяч диалогов, включая крайне опасный контент, — это огромный провал, особенно на фоне заявлений самого Маска о приоритете безопасности. История повторяется: всего несколько месяцев назад аналогичная уязвимость была обнаружена в ChatGPT, и, кажется, xAI не извлекла уроков. В 2025 году, когда регулирование ИИ становится всё жёстче, такие инциденты могут иметь серьёзные последствия для репутации и даже юридического статуса компаний.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии