В результате «человеческой ошибки» в одном из релизов Claude Code, терминального помощника для программирования от компании Anthropic, оказался включен файл source map. Это привело к утечке исходного кода его собственного интерфейса командной строки (CLI).Как сообщает ресурс Ars Technica, утечку
Читать дальше →
После того как компания Anthropic сама случайно выложила в сеть исходный код своего ИИ Claude, глобальное сообщество разработчиков активно изучает материалы. Появились и первые практические результаты, например, инструмент для противодействия блокировке аккаунтов.Многие относятся к Anthropic с
Читать дальше →
Компания Anthropic, позиционирующая себя как осторожного и ответственного разработчика ИИ, переживает непростые времена. Во вторник, 1 апреля 2026 года, из-за человеческой ошибки при выпуске обновления версии 2.1.88 для своего программного пакета Claude Code в открытый доступ попал файл, содержащий
Читать дальше →
Платная подписка на ИИ-ассистента Claude от компании Anthropic переживает взрывной рост среди потребителей в США. Согласно анализу миллиардов анонимных банковских транзакций, проведённому для TechCrunch, число новых платных подписчиков достигло рекордных значений в январе и феврале 2026 года.
Читать дальше →
Окружной суд США вынес решение в пользу компании Anthropic, временно запретив Пентагону называть её «риском для цепочки поставок». Это постановление последовало за судебным иском компании к Министерству обороны США, которое присвоило ей этот статус после того, как военные потребовали обойти
Читать дальше →
Новое исследование компании Anthropic, специализирующейся на искусственном интеллекте, показывает, что, хотя ИИ быстро меняет способы выполнения работы, он пока не привёл к значительному сокращению рабочих мест. Однако под поверхностью «всё ещё здорового» рынка труда, по словам главы отдела
Читать дальше →
Для разработчиков, использующих ИИ, «виб-кодинг» сейчас сводится либо к контролю каждого действия, либо к риску дать модели полную свободу. Компания Anthropic заявляет, что её последнее обновление для Claude призвано устранить этот выбор, позволив ИИ самому решать, какие действия безопасно выполнять
Читать дальше →
AI-лаборатория Anthropic находит всё больше сторонников в своём противостоянии с Министерством обороны США, которое в прошлом месяце внесло компанию в список рисков для цепочек поставок после её отказа идти на уступки по вопросам использования её ИИ военными.В письме министру обороны США Питу
Читать дальше →
Министерство обороны США заявило во вторник вечером, что компания Anthropic представляет «неприемлемый риск для национальной безопасности». Это первый официальный ответ ведомства на иски ИИ-лаборатории, оспаривающие решение министра обороны Пита Хегсета, принятое в прошлом месяце, о признании
Читать дальше →
Компания Anthropic представила инструмент Claude Code Review, предназначенный для автоматической проверки кода, в том числе сгенерированного ИИ. Функция доступна в режиме исследовательского предпросмотра и позволяет анализировать код на наличие ошибок.Как показано на YouTube-канале Claude,
Читать дальше →
Компания Anthropic, создатель ИИ Claude, подала иск к правительству США после того, как Министерство обороны (Пентагон) пригрозило внести её в «чёрный список» поставщиков. Причиной конфликта стал отказ Anthropic удалить из условий использования ИИ два ключевых этических ограничения: запрет на
Читать дальше →
Более 30 сотрудников OpenAI и Google DeepMind подали в понедельник, 9 марта, заявление в поддержку иска компании Anthropic против Министерства обороны США (Пентагон). Это произошло после того, как федеральное агентство объявило разработчика ИИ «риском для цепочки поставок», что следует из судебных
Читать дальше →
Рост популярности «вейб-кодинга» — использования ИИ-инструментов, которые по инструкциям на естественном языке генерируют большие объёмы кода — изменил работу разработчиков. Эти инструменты ускорили разработку, но также привели к появлению новых ошибок, уязвимостей и плохо понятного кода.Компания
Читать дальше →
Компания Anthropic, создатель ИИ Claude, подала два иска к Министерству обороны США (Пентагон) после того, как ведомство признало её риском для цепочки поставок. Конфликт длился несколько недель и касался вопроса о неограниченном доступе военных к системам искусственного интеллекта Anthropic.
Читать дальше →
В течение недели переговоры Пентагона об использовании ИИ-технологий компании Anthropic (Claude) провалились. Администрация президента Трампа признала Anthropic риском для цепочки поставок, а сама компания заявила, что будет оспаривать это решение в суде.Тем временем OpenAI быстро объявила о
Читать дальше →
Министерство обороны США (Пентагон) официально уведомило руководство компании Anthropic о том, что она и её продукты признаны угрозой для цепочки поставок, сообщает Bloomberg со ссылкой на высокопоставленного представителя ведомства.Это решение стало кульминацией нескольких недель конфликта между
Читать дальше →
Контракт компании Anthropic с Министерством обороны США (DoD) на сумму 200 миллионов долларов (~16 млрд рублей) сорвался на прошлой неделе после того, как стороны не смогли договориться о степени неограниченного доступа военных к искусственному интеллекту Anthropic.Когда DoD вместо этого заключил
Читать дальше →
Сооснователь и генеральный директор Anthropic Дарио Амодеи резко раскритиковал своего коллегу из OpenAI Сэма Альтмана. Как сообщает The Information, в служебной записке для сотрудников Амодеи назвал сделку OpenAI с Министерством обороны США «театром безопасности».«Главная причина, по которой
Читать дальше →
Последствия спора компании Anthropic с Министерством обороны США поставили её в неловкое положение. С одной стороны, её ИИ Claude продолжает использоваться в рамках текущего конфликта между США и Ираном, а с другой — компания теряет многих клиентов из оборонной промышленности.Часть путаницы связана
Читать дальше →
Сотни сотрудников технологических компаний подписали открытое письмо, призывающее Министерство обороны США отозвать присвоенный компании Anthropic статус «риска для цепочки поставок». В письме также содержится призыв к Конгрессу вмешаться и «изучить, является ли уместным использование этих
Читать дальше →