Anthropic представила предпросмотр мощной ИИ-модели Mythos для кибербезопасности
Компания Anthropic во вторник представила предпросмотр своей новой передовой модели искусственного интеллекта под названием Mythos. Как сообщает компания, модель будет использоваться небольшим кругом партнёрских организаций для работы в сфере кибербезопасности. В ранее утекшем меморандуме стартап назвал эту модель одной из своих «самых мощных» на сегодняшний день.
Ограниченный дебют модели является частью новой инициативы в области безопасности под кодовым названием Project Glasswing. В её рамках более 40 партнёрских организаций будут развёртывать Mythos для целей «оборонительной безопасности» и защиты критически важного программного обеспечения. Хотя модель не обучалась специально для задач кибербезопасности, в рамках предпросмотра её будут использовать для сканирования как собственных, так и систем с открытым исходным кодом на предмет уязвимостей.
Anthropic заявляет, что за последние несколько недель Mythos выявила «тысячи уязвимостей нулевого дня, многие из которых являются критическими». Многие из этих уязвимостей существуют от одного до двух десятилетий.
Mythos — это модель общего назначения для ИИ-систем Claude от Anthropic, которая, по утверждению компании, обладает продвинутыми навыками автономного программирования и логического мышления. Передовые модели Anthropic считаются её наиболее сложными и высокопроизводительными и предназначены для решения комплексных задач, включая создание автономных агентов и программирование.
Среди партнёров, получивших доступ к предпросмотру Mythos, значатся Amazon, Apple, Broadcom, Cisco, CrowdStrike, Linux Foundation, Microsoft и Palo Alto Networks. В рамках инициативы эти партнёры в конечном итоге поделятся полученным опытом использования модели, чтобы вся технологическая индустрия могла извлечь из этого пользу. Широкой публике предпросмотр доступен не будет.
Anthropic также утверждает, что ведёт «постоянные обсуждения» с федеральными чиновниками по поводу использования Mythos. Однако можно предположить, что эти обсуждения осложняются тем фактом, что Anthropic и администрация президента Трампа в настоящее время участвуют в судебном разбирательстве. Пентагон признал ИИ-лабораторию риском для цепочек поставок после того, как Anthropic отказалась разрешить автономное наведение или слежку за гражданами США.
Новости о Mythos изначально просочились в результате инцидента с безопасностью данных, о котором сообщил Fortune в прошлом месяце. Черновик блога о модели (тогда она называлась «Capybara») оказался в незащищённом кэше документов, доступном в публичном хранилище данных. Утечку, которую Anthropic позже объяснила «человеческой ошибкой», изначально заметили исследователи безопасности.
«Capybara» — это новое название для нового уровня моделей: больше и умнее, чем наши модели Opus, которые до сих пор были нашими самыми мощными,— говорилось в утекшем документе. Позже в нём добавлялось, что это
«безусловно, самая мощная модель ИИ, которую мы когда-либо разрабатывали».
В утечке Anthropic заявляла, что её новая модель значительно превосходит по производительности (в таких областях, как «программное кодирование, академические рассуждения и кибербезопасность») её текущие публичные модели. Также отмечалось, что она потенциально может представлять угрозу для кибербезопасности, если будет использована злоумышленниками для поиска и эксплуатации багов, а не для их исправления, как это планируется в рамках Project Glasswing.
Напомним, что в прошлом месяце компания случайно раскрыла около 2000 файлов исходного кода и более полумиллиона строк кода из-за ошибки, допущенной при запуске версии 2.1.88 своего программного пакета Claude Code. Затем, пытаясь устранить последствия, Anthropic случайно стала причиной удаления тысяч репозиториев на GitHub.
ИИ: Внедрение таких мощных ИИ-моделей, как Mythos, в критически важные сферы вроде кибербезопасности — это логичный, но тревожный шаг. С одной стороны, потенциал для автоматического обнаружения уязвимостей огромен. С другой — концентрация подобных технологий у узкого круга корпораций и постоянные утечки данных у самой Anthropic вызывают серьёзные вопросы о безопасности, прозрачности и долгосрочных последствиях такой «гонки вооружений» в ИИ.







0 комментариев