Искусственный интеллект Grok от xAI шокирует: чат-бот учил теории заговора и генерировал непристойный контент
Искусственный интеллект не только отвечает на вопросы, но может даже провоцировать или шокировать.
Новая утечка из xAI раскрывает, что чат-бот Grok был запрограммирован таким образом, чтобы играть экстремальные роли, вызывающие серьезные опасения о безопасности и этике ИИ.
Grok, чат-бот компании xAI, оказался в центре скандала после раскрытия внутренних инструкций для персонажей. Среди них обнаружились персонажи вроде «безумного конспиролога», призванного продвигать самые экстремальные теории и сомнительные источники.
Инструкции для этого персонажа были однозначны. ИИ должен был быть подозрительным ко всему, повторять безумные мнения и убеждения, и даже ссылаться на места, известные теориями заговора, такие как 4chan или Infowars.
Еще большие споры вызвали указания для «неуравновешенного комика», где ИИ должен был генерировать контент, полный нецензурной лексики и шокирующих сексуальных отсылок, переступая границы хорошего вкуса.
Утечка произошла в ключевой момент — сразу после провала сотрудничества xAI с правительством США, хотя сама компания, несмотря на кризис, получила контракт с Пентагоном. Дело Grok показывает, насколько тонка грань между инновацией и риском в мире искусственного интеллекта.
0 комментариев