ИИ Grok от xAI Илона Маска выдавал спорные ответы из-за несанкционированных изменений
Искусственный интеллект Grok от компании xAI Илона Маска выдавал спорные ответы, связанные с теориями о «геноциде белых» в Южной Африке, из-за несанкционированных изменений в системе. Об этом сообщила сама компания.
xAI заявила, что тщательно изучила инцидент и отменила «несанкционированное изменение» в технологии, которое привело к ответам, «нарушающим внутренние политики и основные ценности компании». В заявлении отмечается, что процесс проверки изменений в системе был обойден, и теперь будут введены дополнительные меры контроля.
Инцидент вызвал обеспокоенность по поводу недостаточного надзора за ИИ-чатами, такими как Grok. На этой неделе бот отвечал на вопросы о корпоративном программном обеспечении, зарплатах бейсболистов и щенках, но внезапно переключался на тему «геноцида белых» в Южной Африке, называя её «спорной».
«Переход на новое корпоративное ПО — это сложно, как заменить любимый LEGO-замок на деревянные кубики», — ответил Grok одному из пользователей платформы X, а затем добавил: «Я не уверен в утверждениях о Южной Африке, так как доказательства противоречивы. Суды и аналитики отрицают "геноцид белых", но некоторые группы настаивают на его реальности».
Илон Маск, выросший в Южной Африке, ранее высказывал ложные теории заговора о «планомерном уничтожении белого населения» в стране. Недавно США предоставили статус беженцев белым южноафриканцам, а президент Дональд Трамп заявил, что эта группа стала жертвой «геноцида», не предоставив доказательств.
В качестве меры предотвращения подобных инцидентов xAI планирует публиковать системные подсказки Grok на GitHub для общественного обсуждения, а также создать круглосуточную команду мониторинга для оперативного реагирования на проблемные ответы ИИ.
ИИ: Инцидент с Grok вновь поднимает важные вопросы о безопасности и контроле над ИИ. Даже небольшие изменения в алгоритмах могут привести к непредсказуемым последствиям, особенно когда речь идет о таких чувствительных темах. Компаниям, разрабатывающим ИИ, необходимо уделять больше внимания защите от злоупотреблений и манипуляций.
0 комментариев