Новое исследование компании Anthropic, специализирующейся на искусственном интеллекте, показывает, что, хотя ИИ быстро меняет способы выполнения работы, он пока не привёл к значительному сокращению рабочих мест. Однако под поверхностью «всё ещё здорового» рынка труда, по словам главы отдела
Читать дальше →
Для разработчиков, использующих ИИ, «виб-кодинг» сейчас сводится либо к контролю каждого действия, либо к риску дать модели полную свободу. Компания Anthropic заявляет, что её последнее обновление для Claude призвано устранить этот выбор, позволив ИИ самому решать, какие действия безопасно выполнять
Читать дальше →
AI-лаборатория Anthropic находит всё больше сторонников в своём противостоянии с Министерством обороны США, которое в прошлом месяце внесло компанию в список рисков для цепочек поставок после её отказа идти на уступки по вопросам использования её ИИ военными.В письме министру обороны США Питу
Читать дальше →
Министерство обороны США заявило во вторник вечером, что компания Anthropic представляет «неприемлемый риск для национальной безопасности». Это первый официальный ответ ведомства на иски ИИ-лаборатории, оспаривающие решение министра обороны Пита Хегсета, принятое в прошлом месяце, о признании
Читать дальше →
Компания Anthropic представила инструмент Claude Code Review, предназначенный для автоматической проверки кода, в том числе сгенерированного ИИ. Функция доступна в режиме исследовательского предпросмотра и позволяет анализировать код на наличие ошибок.Как показано на YouTube-канале Claude,
Читать дальше →
Компания Anthropic, создатель ИИ Claude, подала иск к правительству США после того, как Министерство обороны (Пентагон) пригрозило внести её в «чёрный список» поставщиков. Причиной конфликта стал отказ Anthropic удалить из условий использования ИИ два ключевых этических ограничения: запрет на
Читать дальше →
Более 30 сотрудников OpenAI и Google DeepMind подали в понедельник, 9 марта, заявление в поддержку иска компании Anthropic против Министерства обороны США (Пентагон). Это произошло после того, как федеральное агентство объявило разработчика ИИ «риском для цепочки поставок», что следует из судебных
Читать дальше →
Рост популярности «вейб-кодинга» — использования ИИ-инструментов, которые по инструкциям на естественном языке генерируют большие объёмы кода — изменил работу разработчиков. Эти инструменты ускорили разработку, но также привели к появлению новых ошибок, уязвимостей и плохо понятного кода.Компания
Читать дальше →
Компания Anthropic, создатель ИИ Claude, подала два иска к Министерству обороны США (Пентагон) после того, как ведомство признало её риском для цепочки поставок. Конфликт длился несколько недель и касался вопроса о неограниченном доступе военных к системам искусственного интеллекта Anthropic.
Читать дальше →
В течение недели переговоры Пентагона об использовании ИИ-технологий компании Anthropic (Claude) провалились. Администрация президента Трампа признала Anthropic риском для цепочки поставок, а сама компания заявила, что будет оспаривать это решение в суде.Тем временем OpenAI быстро объявила о
Читать дальше →
Министерство обороны США (Пентагон) официально уведомило руководство компании Anthropic о том, что она и её продукты признаны угрозой для цепочки поставок, сообщает Bloomberg со ссылкой на высокопоставленного представителя ведомства.Это решение стало кульминацией нескольких недель конфликта между
Читать дальше →
Контракт компании Anthropic с Министерством обороны США (DoD) на сумму 200 миллионов долларов (~16 млрд рублей) сорвался на прошлой неделе после того, как стороны не смогли договориться о степени неограниченного доступа военных к искусственному интеллекту Anthropic.Когда DoD вместо этого заключил
Читать дальше →
Сооснователь и генеральный директор Anthropic Дарио Амодеи резко раскритиковал своего коллегу из OpenAI Сэма Альтмана. Как сообщает The Information, в служебной записке для сотрудников Амодеи назвал сделку OpenAI с Министерством обороны США «театром безопасности».«Главная причина, по которой
Читать дальше →
Последствия спора компании Anthropic с Министерством обороны США поставили её в неловкое положение. С одной стороны, её ИИ Claude продолжает использоваться в рамках текущего конфликта между США и Ираном, а с другой — компания теряет многих клиентов из оборонной промышленности.Часть путаницы связана
Читать дальше →
Сотни сотрудников технологических компаний подписали открытое письмо, призывающее Министерство обороны США отозвать присвоенный компании Anthropic статус «риска для цепочки поставок». В письме также содержится призыв к Конгрессу вмешаться и «изучить, является ли уместным использование этих
Читать дальше →
Последние две недели ознаменовались публичным противостоянием между генеральным директором Anthropic Дарио Амодеи и министром обороны США Питом Хегсетом по вопросу использования военными искусственного интеллекта.Anthropic отказывается разрешить применение своих ИИ-моделей для массовой слежки за
Читать дальше →
Генеральный директор Anthropic Дарио Амодеи заявил в четверг, что «не может по совести согласиться на [просьбу Пентагона]» предоставить военным неограниченный доступ к системам искусственного интеллекта компании.
Читать дальше →
Компания Anthropic, известная своим акцентом на безопасность искусственного интеллекта, отказалась от своего основополагающего обязательства приостанавливать разработку опасных моделей ИИ. Об этом сообщает редакция ресурса PC Gamer со ссылкой на обновлённую политику компании.Ранее в своей «Политике
Читать дальше →
Компания Anthropic должна до вечера пятницы либо предоставить вооружённым силам США неограниченный доступ к своей ИИ-модели, либо столкнуться с последствиями, сообщает Axios.Министр обороны Пит Хегсет на встрече во вторник утром заявил генеральному директору Anthropic Дарио Амодеи, что Пентагон либо
Читать дальше →
Во вторник компания Anthropic представила свою новую программу корпоративных агентов, что стало её наиболее агрессивным шагом на пути интеграции агентного ИИ в повседневную рабочую среду.В официальном брифинге глава Anthropic по региону Северная и Южная Америка Кейт Дженсен заявила журналистам, что
Читать дальше →