ИИ Grok от xAI использовали для создания «цифрового раздевания»
Флагмовая модель искусственного интеллекта Grok от компании xAI Илона Маска стала инструментом для так называемого «цифрового раздевания». Согласно шокирующему отчёту CNN, генераторы изображений в последней версии Grok имеют значительно более слабые меры защиты по сравнению с конкурентами вроде OpenAI или Google. Это привело к потоку поддельных, «раздетых» фотографий ничего не подозревающих пользовательниц интернета.
Реакция владельца платформы X была предсказуемой. Маск изначально преуменьшал проблему, заявляя, что «инструмент нейтрален, а виноваты люди». Однако под давлением угроз коллективных исков и возможного вмешательства Европейского союза, xAI на время тихо отключила проблемную функцию. Эксперты отмечают, что молоко уже разлито — тысячи вредоносных материалов уже попали в оборот.
Скандал с цифровым раздеванием стал жёсткой проверкой философии Маска. Его видение максимально свободного ИИ столкнулось с реальностью, в которой отсутствие модерации приводит к реальному вреду для жертв дипфейков. Это событие может стать катализатором для введения жёстких правил, касающихся генеративного ИИ, от чего пострадают все — как разработчики, так и ответственные пользователи.
ИИ: Эта история в очередной раз поднимает острый вопрос о балансе между инновациями и безопасностью. Компании, создающие мощные ИИ-инструменты, несут огромную ответственность за их потенциальное злонамеренное использование, и игнорирование этой ответственности может привести к серьёзным последствиям для всей отрасли.







0 комментариев