Google, Microsoft и xAI согласились передавать ИИ-модели властям США для проверки до публичного релиза
Компании Google, Microsoft и xAI Илона Маска согласились предоставить Центру по стандартам и инновациям в области ИИ (CAISI) Министерства торговли США доступ к своим моделям искусственного интеллекта до их публичного релиза, сообщает Bloomberg. OpenAI и Anthropic, у которых уже были соглашения о партнёрстве с центром с 2024 года, пересмотрели свои договорённости в соответствии с приоритетами Плана действий по ИИ президента Трампа, заявило ведомство.
Эти соглашения означают, что теперь все ведущие американские лаборатории в области передового ИИ добровольно участвуют в предрелизных государственных оценках. По данным Министерства торговли, на сегодняшний день CAISI провёл более 40 оценок моделей, включая анализ ещё не выпущенных систем последнего поколения.
CAISI действует в рамках NIST и был первоначально создан в 2023 году при администрации Байдена как Институт безопасности ИИ. Администрация Трампа переименовала его в июне прошлого года, а министр торговли Говард Лютник назвал ребрендинг отказом от того, что он назвал регулированием, «используемым под видом национальной безопасности».
«Эти расширенные отраслевые коллаборации помогают нам масштабировать нашу работу в интересах общества в критический момент», — заявил директор CAISI Крис Фолл о новых соглашениях. Фолл возглавил центр после того, как Коллин Бёрнс, бывший исследователь Anthropic и OpenAI, был уволен всего через четыре дня после назначения. The Washington Post сообщала в прошлом месяце, что чиновники Белого дома были обеспокоены связями Бёрнса с Anthropic, учитывая текущий спор администрации с этой компанией. Бёрнс переехал через всю страну и отказался от доли в Anthropic, чтобы занять эту должность.
Центр по-прежнему не имеет постоянного юридического статуса, и некоторые законодатели внесли законопроекты для его закрепления, но ни один из них не был принят. План действий по ИИ Трампа, объявленный в июле прошлого года, предписывает CAISI выступать в качестве части «экосистемы оценки ИИ» и возглавлять оценку моделей, связанных с национальной безопасностью. Он также поручает регуляторам изучить возможность использования оценок при применении существующих законов к системам ИИ.
Пересмотренное соглашение Anthropic с CAISI существует наряду с отдельным и враждебным набором взаимодействий с федеральным правительством. Пентагон в марте признал Anthropic риском для цепочки поставок после того, как компания отказалась снизить ограничения на автономное оружие, хотя федеральный судья позже назвал этот шаг «оруэлловским». Министр обороны Пит Хегсет и Трамп определили шестимесячный период поэтапного отказа от использования инструментов Anthropic правительством, и два активных судебных иска остаются неразрешёнными.
Новые соглашения CAISI также появились через день после сообщений о том, что администрация Трампа рассматривает возможность введения обязательной предрелизной проверки моделей ИИ через исполнительный указ, причём модель Mythos от Anthropic была названа катализатором. Добровольные соглашения, объявленные во вторник, и любой потенциальный обязательный механизм проверки будут действовать параллельно, хотя остаётся неясным, как они могут взаимодействовать.
Источник: Tomshardware.com







0 комментариев