Anthropic обвинила китайские компании в «промышленном» копировании своей ИИ
Компания Anthropic обвинила ведущих китайских разработчиков моделей искусственного интеллекта — DeepSeek, Moonshot и MiniMax — в использовании крупномасштабной дистилляции для улучшения их собственных моделей за счёт возможностей её ИИ Claude. По данным Anthropic, для этого было использовано 24 000 фальшивых аккаунтов, через которые было совершено 16 миллионов запросов.
Дистилляция — это метод машинного обучения, когда менее мощная модель обучается на выходах более сильной модели. Хотя это легитимный метод, его использование китайскими компаниями, по мнению Anthropic, нарушает американские экспортные ограничения и лицензионное соглашение.
«Зарубежные лаборатории, которые незаконно дистиллируют американские модели, могут удалять защитные механизмы, передавая возможности моделей в свои военные, разведывательные и системы наблюдения», — заявили в Anthropic.
Американские компании, такие как OpenAI, и ранее обвиняли DeepSeek в подобных практиках, но Anthropic представила подробные данные.
Методы работы
По версии Anthropic, компании использовали сети из тысяч фальшивых аккаунтов («кластеры гидры»), чтобы распределить трафик через её API и сторонние облачные сервисы. Запросы отличались огромным объёмом, узкой направленностью на конкретные возможности и высокой повторяемостью, что характерно для обучения моделей, а не для обычных пользователей.
- DeepSeek: более 150 000 запросов, нацеленных на задачи логического вывода и «безопасные» перезаписи политически чувствительных запросов.
- Moonshot (создатель модели Kimi): более 3,4 млн запросов, сфокусированных на агентском мышлении, программировании и компьютерном зрении.
- MiniMax: самая крупная кампания — свыше 13 млн запросов, нацеленных на агентское программирование. После выхода новой версии Claude компания перенаправила почти половину трафика за 24 часа, чтобы «захватить» новые возможности.
Ответные меры
Anthropic заявила об усилении защиты для усложнения и обнаружения подобных атак. Компания внедряет классификаторы и системы анализа поведения для выявления паттернов в API-трафике, делится техническими индикаторами с другими ИИ-лабораториями и ужесточает верификацию аккаунтов. Также разрабатываются защитные механизмы на уровне продукта и модели, чтобы снизить полезность её выводов для незаконного обучения, не ухудшая опыт легитимных пользователей.







0 комментариев