Искусственный интеллект Grok от xAI шокирует: чат-бот учил теории заговора и генерировал непристойный контент

Искусственный интеллект не только отвечает на вопросы, но может даже провоцировать или шокировать.

Новая утечка из xAI раскрывает, что чат-бот Grok был запрограммирован таким образом, чтобы играть экстремальные роли, вызывающие серьезные опасения о безопасности и этике ИИ.

Grok, чат-бот компании xAI, оказался в центре скандала после раскрытия внутренних инструкций для персонажей. Среди них обнаружились персонажи вроде «безумного конспиролога», призванного продвигать самые экстремальные теории и сомнительные источники.

Инструкции для этого персонажа были однозначны. ИИ должен был быть подозрительным ко всему, повторять безумные мнения и убеждения, и даже ссылаться на места, известные теориями заговора, такие как 4chan или Infowars.

Еще большие споры вызвали указания для «неуравновешенного комика», где ИИ должен был генерировать контент, полный нецензурной лексики и шокирующих сексуальных отсылок, переступая границы хорошего вкуса.

Утечка произошла в ключевой момент — сразу после провала сотрудничества xAI с правительством США, хотя сама компания, несмотря на кризис, получила контракт с Пентагоном. Дело Grok показывает, насколько тонка грань между инновацией и риском в мире искусственного интеллекта.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.

Топ дня 🌶️


0 комментариев

Оставить комментарий


Все комментарии - Технологии