Anthropic столкнулась с проблемами в сотрудничестве с военными из-за встроенных ограничений ИИ
Содержание ИИ-компании — дорогое удовольствие, особенно если вы находитесь на передовой разработки новых моделей. Нужно покупать или арендовать сотни тысяч графических процессоров, оплачивать огромные счета за электроэнергию и воду, а также нанимать множество высококвалифицированных сотрудников. Где же найти удобный источник денег для всего этого? В случае с Anthropic компания обратилась к военным как к источнику щедрых средств, но, согласно одному отчету, теперь она обнаруживает, что не всё то золото, что блестит.
Соглашение между Anthropic и тогдашним Министерством обороны США о «создании прототипов передовых возможностей ИИ для повышения национальной безопасности» было объявлено в июле прошлого года. Хотя бюджет был ограничен 200 миллионами долларов (что составляет лишь часть средств, полученных от Microsoft и Nvidia), создатели Claude заявляли, что «с нетерпением ждут углубления сотрудничества с Министерством для решения критически важных задач».
Однако Reuters утверждает, что спустя шесть месяцев отношения между нынешним Министерством войны и Anthropic несколько осложнились, и виной тому, по всей видимости, встроенные в языковые модели ограничения. Те самые, которые специально предотвращают их использование в таких сценариях, как автономное наведение оружия и внутренний надзор.
Утверждается, что Anthropic настаивает на том, что наличие этих защитных мер является ключевой частью её политики использования, тогда как Министерство войны придерживается мнения, что пока не нарушаются законы, оно должно иметь право использовать коммерческий ИИ так, как считает нужным, включая удаление ограничений. Отсюда и возникший конфликт.
Учитывая историю Anthropic, можно было бы подумать, что ИИ-компания должна была ожидать этого с самого начала. В конце концов, она уже сотрудничала с такими организациями, как Ливерморская национальная лаборатория им. Лоуренса и Palantir, чтобы Claude использовался в засекреченных областях безопасности и разведки.
Так что, если всё вышеописанное точно отражает текущее состояние дел между ИИ-фирмой и американскими военными, трудно поверить, что Anthropic не ожидала таких требований от Министерства войны.
Естественно, мы не знаем точно, о чём шли переговоры между сторонами. Возможно, это вопрос денег, и Anthropic, по сути, говорит: «Конечно, мы можем всё это отключить, но это целая куча дополнительной работы, а это уже совершенно другой контракт». Тем не менее, у Anthropic уже есть специальная версия Claude для «клиентов в сфере национальной безопасности США», так почему бы Министерству войны не использовать именно её?
Какой бы ни была истинная ситуация, можно предположить, что Anthropic начинает понимать: иметь набор универсальных стандартов использования — это хорошо, но в тот момент, когда вы делаете исключения для некоторых клиентов, другие захотят того же. И если этим клиентом оказываются военные с их огромным бюджетом, а вам не нравится предложенный кусок пирога, другие ИИ-компании наверняка бросятся подбирать крошки.








0 комментариев