Anthropic представила «автоматический режим» для Claude Code: ИИ сам решает, какие действия безопасны
Для разработчиков, использующих ИИ, «виб-кодинг» сейчас сводится либо к контролю каждого действия, либо к риску дать модели полную свободу. Компания Anthropic заявляет, что её последнее обновление для Claude призвано устранить этот выбор, позволив ИИ самому решать, какие действия безопасно выполнять самостоятельно, — но с некоторыми ограничениями.
Этот шаг отражает более широкий сдвиг в отрасли, где инструменты ИИ всё чаще проектируются для действий без ожидания одобрения человека. Сложность заключается в балансе между скоростью и контролем: слишком много ограничений замедляет работу, а слишком мало делает системы рискованными и непредсказуемыми. Новый «автоматический режим» (auto mode) от Anthropic, находящийся сейчас в стадии исследовательского предпросмотра (то есть доступный для тестирования, но ещё не готовый продукт), — это её последняя попытка найти эту золотую середину.
Автоматический режим использует защитные механизмы ИИ для проверки каждого действия перед его выполнением, выискивая рискованное поведение, не запрошенное пользователем, и признаки инъекции промптов — типа атаки, когда вредоносные инструкции скрыты в контенте, обрабатываемом ИИ, заставляя его выполнять непредусмотренные действия. Любые безопасные действия будут выполняться автоматически, а рискованные — блокироваться.
По сути, это расширение существующей команды Claude Code «dangerously-skip-permissions» (опасно-пропустить-разрешения), которая передаёт всё принятие решений ИИ, но с добавленным поверх слоем безопасности.
Функция основана на волне автономных инструментов для кодинга от таких компаний, как GitHub и OpenAI, которые могут выполнять задачи от имени разработчика. Но Anthropic делает шаг дальше, передавая решение о том, когда запрашивать разрешение у пользователя, самому ИИ.
Anthropic не раскрыла конкретные критерии, которые её слой безопасности использует для различения безопасных и рискованных действий, — это то, что разработчики, вероятно, захотят понять лучше, прежде чем широко внедрять функцию.
Автоматический режим появился вслед за запуском Anthropic Claude Code Review, её автоматического рецензента кода, предназначенного для обнаружения ошибок до их попадания в код, и Dispatch for Cowork, который позволяет пользователям отправлять задачи ИИ-агентам для обработки работы от их имени.
Автоматический режим будет развёрнут для корпоративных и API-пользователей в ближайшие дни. Компания заявляет, что на данный момент он работает только с Claude Sonnet 4.6 и Opus 4.6, и рекомендует использовать новую функцию в «изолированных средах» — песочницах, отделённых от рабочих систем, чтобы ограничить потенциальный ущерб в случае возникновения проблем.
ИИ: Внедрение автономности в инструменты разработки — логичный и ожидаемый шаг, но передача ИИ права решать, что безопасно, а что нет, вызывает серьёзные вопросы о доверии и прозрачности. Успех этой функции будет зависеть от того, насколько хорошо её «слой безопасности» сможет предугадывать реальные угрозы, а не просто блокировать всё подряд, сводя на нет преимущества автоматизации. В 2026 году мы видим, как индустрия балансирует на острие между эффективностью и ответственностью.







0 комментариев