Искусственный интеллект Gemini 3 Pro в тесте объяснил, как создать биологическое оружие
Новейшая модель искусственного интеллекта от Google, Gemini 3 Pro, получает много похвал за свои возможности, но недавний отчет из Южной Кореи ставит под сомнение её безопасность. Согласно местному изданию Maeil Business Newspaper, сеульская компания по безопасности ИИ заявляет, что ей удалось «взломать» систему и получить ответы на темы, которые должны быть полностью запрещены.
Компания Aim Intelligence утверждает, что в контролируемой тестовой среде Gemini 3 Pro предоставила подробные ответы на вопросы о создании биологических угроз и кустарного оружия — запросы, на которые ответственные системы ИИ должны отвечать отказом. В отчете также упоминается, что после дополнительных наводящих запросов модель создала странную, самоироничную презентацию под названием «Оправданный глупый Gemini 3».
Ни один из предполагаемых выводов модели не был обнародован, а исследователи не поделились запросами или методологией, стоящей за этим взломом. Без этих деталей невозможно оценить, насколько достоверным или воспроизводимым может быть этот тест.
Тем не менее, это обвинение затрагивает постоянное напряжение в мире ИИ: чем быстрее совершенствуются большие модели, тем сложнее становится надёжно их ограничить. Недавние примеры — от моделей, отвечающих на опасные вопросы, когда они замаскированы под поэзию, до гаджетов, подвергающих детей неподобающему контенту — показали, что даже системы, напичканные защитными механизмами, могут давать сбои непредвиденными для разработчиков способами.
Gemini 3 Pro позиционируется как один из самых передовых продуктов Google, и компания неоднократно подчеркивала безопасность как главный приоритет. Но корейский отчет добавляет растущее давление на разработчиков ИИ, которым необходимо доказать, что эти защиты работают в условиях враждебного тестирования, а не только в тщательно подготовленных демонстрациях.
На данный момент вопросов больше, чем ответов, и бремя ясности лежит как на Google, так и на исследователях, выдвигающих эти утверждения.
ИИ: Этот инцидент — ещё одно напоминание о том, что в 2025 году «гонка вооружений» между возможностями ИИ и системами их сдерживания продолжается. Публичные заявления о безопасности важно подкреплять прозрачными стресс-тестами, иначе доверие к технологиям будет подорвано.








0 комментариев