Сотрудники OpenAI и Google поддержали Anthropic в суде против Пентагона

Более 30 сотрудников OpenAI и Google DeepMind подали в понедельник, 9 марта, заявление в поддержку иска компании Anthropic против Министерства обороны США (Пентагон). Это произошло после того, как федеральное агентство объявило разработчика ИИ «риском для цепочки поставок», что следует из судебных документов.

«Обозначение правительством Anthropic как риска для цепочки поставок было неправомерным и произвольным использованием власти, которое имеет серьёзные последствия для нашей отрасли», — говорится в документе, среди подписантов которого — главный научный сотрудник Google DeepMind Джефф Дин.

На прошлой неделе Пентагон присвоил Anthropic статус риска для цепочки поставок — ярлык, обычно зарезервированный для иностранных противников. Это случилось после того, как компания отказалась разрешить Министерству обороны использовать её технологии для массовой слежки за американцами или автономного применения оружия. В Пентагоне же настаивали, что должны иметь право использовать ИИ для любых «законных» целей и не быть ограниченными частным подрядчиком.

Заявление в поддержку Anthropic появилось в судебном реестре спустя несколько часов после того, как создатель ИИ Claude подал два иска против Минобороны и других федеральных агентств. Wired первым сообщил об этой новости.

В документе сотрудники Google и OpenAI указывают, что если Пентагон был «не удовлетворён согласованными условиями контракта с Anthropic», агентство могло бы «просто расторгнуть контракт и приобрести услуги другой ведущей компании в области ИИ».

Минобороны действительно заключило сделку с OpenAI практически сразу после того, как объявило Anthropic риском для цепочки поставок — этот шаг вызвал протесты у многих сотрудников создателя ChatGPT.

«Если этому позволят продолжиться, эта попытка наказать одну из ведущих американских компаний в области ИИ, несомненно, будет иметь последствия для промышленной и научной конкурентоспособности Соединённых Штатов в области искусственного интеллекта и не только, — говорится в заявлении. — И это охладит открытые дискуссии в нашей области о рисках и преимуществах современных систем ИИ».

В документе также утверждается, что заявленные Anthropic «красные линии» являются законными опасениями, требующими серьёзных ограничений. Без публичного закона, регулирующего использование ИИ, договорные и технические ограничения, накладываемые разработчиками на свои системы, являются критически важной защитой от катастрофического злоупотребления.

Многие из сотрудников, подписавших заявление, также подписывали открытые письма за последние пару недель, призывая Минобороны отозвать ярлык и обращаясь к руководителям своих компаний с призывом поддержать Anthropic и отказаться от одностороннего использования их систем ИИ.

Интересный факт: Компания Anthropic, основанная бывшими сотрудниками OpenAI, позиционирует себя как разработчик «безопасного и управляемого» ИИ. Её флагманская модель Claude известна своими строгими этическими ограничениями, что неоднократно становилось предметом дискуссий в индустрии. Конфликт с Пентагоном стал одним из самых громких случаев, когда частная технологическая компания публично отказала государственному ведомству в использовании своих разработок по этическим соображениям.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии