Сотни сотрудников IT-компаний требуют от Пентагона и Конгресса отозвать статус «риска для цепочки поставок» у Anthropic

Сотни сотрудников технологических компаний подписали открытое письмо, призывающее Министерство обороны США отозвать присвоенный компании Anthropic статус «риска для цепочки поставок». В письме также содержится призыв к Конгрессу вмешаться и «изучить, является ли уместным использование этих чрезвычайных полномочий против американской технологической компании».

Среди подписавших письмо — сотрудники крупных технологических и венчурных компаний, включая OpenAI, Slack, IBM, Cursor, Salesforce Ventures и другие. Это стало реакцией на конфликт между Минобороны США и Anthropic, который возник на прошлой неделе после того, как лаборатория искусственного интеллекта отказалась предоставить военным неограниченный доступ к своим ИИ-системам.

Две «красные линии» для Anthropic в переговорах с Пентагоном заключались в том, что компания не хочет, чтобы её технологии использовались для массовой слежки за американцами или для управления автономным оружием, способным выбирать цели и стрелять без участия человека. В Минобороны заявили, что не планируют делать ни то, ни другое, но при этом не считают, что должны быть ограничены правилами поставщика.

После того как генеральный директор Anthropic Дарио Амодеи отказался заключить соглашение с министром обороны США Питом Хегсетом, президент Дональд Трамп в пятницу распорядился федеральным агентствам прекратить использование технологий Anthropic после шестимесячного переходного периода. Затем Хегсет инициировал присвоение Anthropic статуса риска для цепочки поставок — статуса, обычно зарезервированного для иностранных противников, который фактически внесёт ИИ-компанию в чёрный список для работы с любым агентством или компанией, сотрудничающей с Пентагоном.

В сообщении в пятницу Хегсет написал: «Немедленно вступает в силу запрет для любого подрядчика, поставщика или партнёра, ведущего дела с вооружёнными силами США, на любую коммерческую деятельность с Anthropic».

Однако пост в X не делает Anthropic риском для цепочки поставок автоматически. Правительству необходимо завершить оценку рисков и уведомить Конгресс, прежде чем военные партнёры будут обязаны разорвать связи с Anthropic или её продуктами. В Anthropic заявили в заявлении в блоге, что это обозначение «юридически несостоятельно» и что компания «будет оспаривать любое обозначение риска для цепочки поставок в суде».

Многие в отрасли рассматривают действия администрации в отношении Anthropic как жёсткие и явные репрессалии.

«Когда две стороны не могут договориться об условиях, нормальный путь — разойтись и работать с конкурентом, — говорится в открытом письме. — Эта ситуация создаёт опасный прецедент. Наказание американской компании за отказ принять изменения в контракте посылает чёткий сигнал каждой технологической компании в Америке: принимайте любые условия, которые требует правительство, или столкнётесь с ответными мерами».

Помимо озабоченности жёстким обращением правительства с Anthropic, многие в отрасли по-прежнему обеспокоены потенциальным злоупотреблением полномочиями со стороны правительства и использованием ИИ в неблаговидных целях.

Исследователь OpenAI Боаз Барак написал в социальной сети в понедельник, что запрет правительствам использовать ИИ для массовой внутренней слежки также является его «личной красной линией», и «это должно быть красной линией для всех нас».

Спустя мгновения после публичной атаки Трампа на Anthropic, OpenAI объявила, что достигла собственной сделки о развёртывании своих моделей в засекреченных средах Минобороны США. Генеральный директор OpenAI Сэм Альтман на прошлой неделе заявил, что у его компании те же «красные линии», что и у Anthropic.

«Если из событий последней недели можно извлечь что-то хорошее, так это то, что мы в индустрии ИИ начнём относиться к проблеме использования ИИ для злоупотреблений со стороны правительства и слежки за собственным народом как к катастрофическому риску самому по себе, — написал Барак. — Мы хорошо поработали над оценками, мерами смягчения и процессами для таких рисков, как биологическое оружие и кибербезопасность. Давайте применим аналогичные процессы и здесь».
Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии