Американские ИИ-инструменты для программирования под подозрением: используют ли они китайские модели?

Ключевые моменты:

  • Два американских ИИ-инструмента для программирования подозреваются в использовании китайских моделей с открытым исходным кодом.
  • Проблема вызвала дебаты об этике, прозрачности и атрибуции в разработке ИИ.
  • Китайские базовые модели, такие как GLM-4.6, влияют на глобальные ИИ-продукты, даже на американском рынке.

Растущие опасения по поводу происхождения моделей

Два новых ИИ-инструмента для программирования от американских компаний Cognition AI и Cursor оказались под пристальным вниманием из-за возможного использования китайских базовых моделей ИИ. Этот спор вновь разжег дискуссии о прозрачности и авторстве в коммерциализации систем искусственного интеллекта с открытым исходным кодом.

Модель SWE-1.5 от Cognition AI в центре внимания

Базирующаяся в Сан-Франциско компания Cognition AI, оцененная примерно в 10,2 млрд долларов (~816 млрд руб.), недавно представила свою модель SWE-1.5, которая демонстрирует почти передовые показатели в программировании и рекордную скорость генерации. Хотя компания подтвердила, что SWE-1.5 была создана «на основе ведущей модели с открытым исходным кодом», она не уточнила, какой именно.

Однако быстро возникли предположения, что SWE-1.5 может быть основана на модели GLM-4.6 от китайской компании Zhipu AI, выпущенной под лицензией MIT с открытым исходным кодом. Сама Zhipu AI намекнула, что модель Cognition могла использовать GLM-4.6 в качестве основы, хотя Cognition AI публично не прокомментировала этот вопрос.

Composer от Cursor сталкивается с аналогичными вопросами

Другой стартап из Сан-Франциско, Cursor, оцененный в 9,9 млрд долларов (~792 млрд руб.), запустил помощник для программирования под названием Composer, который демонстрирует производительность, аналогичную SWE-1.5. Пользователи сообщали об обнаружении следов рассуждений на китайском языке в выводе инструмента, что привело к предположениям, что Composer также полагается на китайскую базовую модель. Cursor пока отказывается комментировать эти заявления.

Этические дебаты и вопросы лицензирования

В центре проблемы лежит вопрос этического использования и атрибуции в ИИ. Многие китайские модели, включая GLM-4.6, выпускаются под разрешительными лицензиями, такими как MIT, которые позволяют компаниям использовать и изменять их в коммерческих целях без обязательного указания авторства. Хотя это законно, такая практика вызывает опасения по поводу справедливости и прозрачности в разработке ИИ.

По словам исследователя ИИ Флориана Бранда из Трирского университета, «тонкая настройка — это 'секретный соус'», что означает, что истинная ценность часто исходит от кастомизации и обучения с подкреплением, а не только от самой базовой модели.

Мнение Zhipu AI

Вместо того чтобы рассматривать ситуацию как негативную, Zhipu AI подчеркивает положительное влияние открытого сотрудничества, заявляя, что оно укрепляет глобальную экосистему ИИ. За последние месяцы компания зафиксировала десятикратный рост числа платных пользователей за рубежом и запустила подписку для программистов для международного расширения.

Почему это важно для обычных пользователей

Для обычных пользователей этот спор подчеркивает растущие опасения относительно доверия, прозрачности и безопасности данных в ИИ-инструментах. Когда компании не раскрывают происхождение своих моделей, пользователи не могут быть уверены в том, как обрабатываются их данные и следует ли технология надлежащим стандартам конфиденциальности. Это также поднимает этические вопросы о добросовестном использовании и авторстве в ИИ с открытым исходным кодом, что означает, что инструменты, на которые полагаются люди, могут быть построены на чужой работе без должного признания.

В конечном счете, это показывает, насколько глубоко ИИ стал глобальным и взаимосвязанным, размывая национальные границы и делая прозрачность как никогда важной для доверия пользователей.

ИИ: Эта ситуация наглядно демонстрирует, как глобализация технологий ИИ стирает традиционные границы между странами-разработчиками. В 2025 году вопросы прозрачности и этики использования открытых моделей становятся критически важными не только для разработчиков, но и для конечных пользователей, которые хотят понимать, на чем основаны инструменты, которые они используют ежедневно.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии