Апелляционный суд округа Колумбия США отклонил предложение компании Anthropic, занимающейся искусственным интеллектом, приостановить признание Министерством обороны США компании, представляющей риск в цепочке поставок для национальной безопасности.
Коллегия из трех судей отклонила экстренное ходатайство об отсрочке в среду, постановив, что заинтересованность правительства в контроле над тем, как оно обеспечивает безопасность технологий искусственного интеллекта во время активного военного конфликта, перевешивает любой финансовый или репутационный ущерб, который Anthropic может понести из-за этого ярлыка.
Это решение означает, что часть официального определения Министерства обороны продукции Anthropic как «риска в цепочке поставок для национальной безопасности» остается в силе.
Это обозначение никогда раньше не применялось к американской компании, а также запрещает подрядчикам, работающим с Пентагоном, использовать модели искусственного интеллекта Anthropic. Это может создать пугающий прецедент для других технологических компаний, которые не выполняют требования правительства.
«На наш взгляд, справедливый баланс здесь склоняется в пользу правительства», — написала коллегия из трех судей.
“С одной стороны, это относительно ограниченный риск финансового ущерба для одной частной компании. С другой стороны, это судебное регулирование того, как и через кого военное министерство обеспечивает безопасность жизненно важных технологий искусственного интеллекта во время активного военного конфликта”.

Оспаривание ярлыка в двух судах
Спор возник из-за сделки между фирмой, занимающейся искусственным интеллектом, и Пентагоном, заключенной в июле 2025 года, о контракте на то, чтобы сделать модель искусственного интеллекта Anthropic Claude первой большой языковой моделью, одобренной для использования в секретных сетях.
Однако переговоры провалились в феврале, когда правительство пыталось пересмотреть условия и настаивало на том, чтобы Anthropic разрешил использование Клода в военных целях без ограничений. Anthropic заявила, что ее технология не должна использоваться для смертоносного автономного оружия и массовой внутренней слежки за американцами.
В конце февраля президент США Дональд Трамп приказал всем федеральным агентствам прекратить использование продукции Anthropic, заявив, что компания совершила «катастрофическую ошибку, пытаясь оказать сильное влияние на военное министерство».
В марте Anthropic подала в суд на администрацию Трампа, что она назвала «незаконной кампанией возмездия».
В конце марта Окружной суд Северного округа Калифорнии вынес предварительный судебный запрет против Пентагона в связи с этим назначением и временно приостановил действие директивы Трампа, назвав ее «оруэлловской».
Однако из-за того, как написан федеральный закон о закупках, Anthropic пришлось оспорить это назначение в двух отдельных юридических инстанциях — в окружном суде Калифорнии на конституционных основаниях и непосредственно в округе округа Колумбия в соответствии с конкретным законом, санкционировавшим такое назначение.
В постановлении признается, что Anthropic «вероятно, будет нанесен некоторый непоправимый вред в случае отсутствия пребывания», и говорится, что «существенная экспедиция оправдана».
Исполняющий обязанности генерального прокурора США Тодд Бланш заявил на X, что это была «громкая победа военной готовности».
«Военная власть и оперативный контроль принадлежат главнокомандующему и военному ведомству, а не технологической компании».
Asia Express: Phantom проверяет биткоин, Китай отслеживает налог на блокчейн





