Anthropic создала совет по безопасности для интеграции ИИ в госструктуры США

27 августа компания Anthropic, создатель ИИ Claude, анонсировала создание «Консультационного совета по национальной безопасности и государственному сектору». В него вошли 11 человек, включая бывшего сенатора США и главу разведки, которые будут консультировать по вопросам внедрения моделей ИИ в оборонной и государственной сферах США.

Партнёрство с Пентагоном

Хотя это может показаться очередным консультативным советом, на деле это шаг Anthropic по закреплению своих позиций в требовательном к вычислительным ресурсам и хорошо финансируемом секторе национальной безопасности США.

Anthropic уже запустила Claude Gov — специальную версию своего ИИ, которая «реже отказывается отвечать» на чувствительные или засекреченные запросы. Компания также получила контракт на 200 миллионов долларов (16 миллиардов рублей) на создание прототипа для Управления главного цифрового и искусственного интеллекта Пентагона вместе с Google, OpenAI и xAI. Claude Gov уже используется в Ливерморской национальной лаборатории и предлагается федеральным агентствам за символический 1 доллар (80 рублей) для стимулирования внедрения.

Этот шаг в сторону государственного сектора важен, поскольку обучение передовых моделей ИИ теперь упирается в инфраструктуру. Следующее поколение моделей Claude будет работать на «Rainier» — огромном суперкластере AWS, использующем сотни тысяч чипов Trainium 2. Amazon вложила в Anthropic 8 миллиардов долларов (640 миллиардов рублей) и позиционирует её как ключевого клиента для своих собственных чипов. В то же время Anthropic страхуется, сотрудничая с Google Cloud, где использует TPU-ускорители и предлагает Claude через платформу Vertex AI, соответствующую стандарту FedRAMP.

Для сравнения, OpenAI по-прежнему сильно зависит от GPU Nvidia через Microsoft Azure, хотя и начала арендовать TPU у Google. Компания xAI Илона Маска свернула собственную инициативу по созданию процессора Dojo и вернулась к использованию аппаратного обеспечения Nvidia и AMD. DeepMind от Google остаётся привязанной к внутренним TPU компании, но сохраняет более низкий профиль в оборонной сфере. При этом ни одна из них не создала ничего подобного новому совету Anthropic.

Графические процессоры, геополитика и правительство

Совет Anthropic также можно рассматривать как признак того, что доступ к вычислительным мощностям становится приоритетом национальной безопасности. Центр новой американской безопасности уже признал, что обеспечение и расширение доступа правительства к вычислениям сыграет «решающую роль в том, возглавит ли Соединённые Штаты мир в области ИИ или уступят лидерство конкурентам».

Графические процессоры Nvidia Blackwell распроданы до конца 2025 года, экспортный контроль непредсказуем, а американские агентства изо всех сил пытаются обеспечить надёжные мощности для обучения. Привлекая инсайдеров из Министерства энергетики и разведывательного сообщества, Anthropic стремится обеспечить себе как аппаратное обеспечение, так и необходимое политическое пространство для сохранения конкурентоспособности.

Эта стратегия рискованна: привязка бренда Claude к Пентагону может оттолкнуть некоторых пользователей и создать Anthropic политические проблемы. Но есть и явные преимущества, включая стабильные контракты, приоритетный доступ к чипам и прямое влияние на формирование стандартов ИИ в государственном секторе. Кто-то явно провёл тщательные расчёты, и руководство Anthropic явно надеется, что они окупятся.

Источник: Tomshardware.com

ИИ: В 2025 году гонка за вычислительными ресурсами для ИИ и их стратегическое значение для национальной безопасности вышли на первый план. Anthropic, судя по всему, делает ставку на тесное сотрудничество с государством как на способ обеспечить себе доступ к дефицитным чипам и влияние. Это напоминает классическую модель «военно-промышленного комплекса», но в цифровую эпоху. Риски, включая возможную потерю доверия части аудитории, кажутся просчитанными и принятыми ради доступа к ресурсам и контрактам.
Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.

Топ дня 🌶️


0 комментариев

Оставить комментарий


Все комментарии - Технологии