Компания Anthropic, занимающаяся искусственным интеллектом, обвинила три компании, занимающиеся искусственным интеллектом, в незаконном использовании своей большой языковой модели Claude для улучшения своих собственных моделей с помощью метода, известного как атака «дистилляции».
В своем блоге в воскресенье Anthropic сообщила, что обнаружила эти «атаки» со стороны DeepSeek, Moonshot и MiniMax, которые включают обучение менее способной модели на результатах более сильной модели.
Anthropic обвинила эту троицу в организации «более 16 миллионов обменов» в сочетании с искусственным интеллектом Claude AI на «приблизительно 24 000 мошеннических счетов».
“Дистиллация — широко используемый и законный метод обучения. Например, пограничные лаборатории искусственного интеллекта регулярно перерабатывают свои собственные модели, чтобы создавать меньшие и более дешевые версии для своих клиентов”, — пишет Anthropic, добавляя:
«Но дистилляция также может использоваться в незаконных целях: конкуренты могут использовать ее для приобретения мощных возможностей у других лабораторий за гораздо меньшее время и с меньшими затратами, чем потребовалось бы для их независимой разработки».
В Anthropic заявили, что атаки были направлены на сбор данных Клода для широкого круга целей, включая агентное мышление, кодирование и анализ данных, задачи по оцениванию на основе рубрик и компьютерное зрение.
«Каждая кампания была нацелена на наиболее дифференцированные способности Клода: агентное мышление, использование инструментов и кодирование», — заявили в компании по искусственному интеллекту с многомиллиардным оборотом.

Anthropic заявляет, что смогла идентифицировать троицу с помощью «корреляции IP-адресов, метаданных запроса, показателей инфраструктуры и, в некоторых случаях, подтверждения от отраслевых партнеров, которые наблюдали тех же участников и поведение на своих платформах».
DeepSeek, Moonshot и Minimax — компании в области искусственного интеллекта, базирующиеся в Китае. Оценка всех трех компаний оценивается в несколько миллиардов долларов, причем DeepSeek является наиболее широко признанной на международном уровне из трех.
Помимо последствий для интеллектуальной собственности, Anthropic утверждает, что кампании по перегонке со стороны иностранных конкурентов представляют собой реальные геополитические риски.
«Иностранные лаборатории, которые перерабатывают американские модели, могут затем использовать эти незащищенные возможности в военных, разведывательных и наблюдательных системах, что позволяет авторитарным правительствам использовать передовой искусственный интеллект для наступательных киберопераций, кампаний по дезинформации и массового наблюдения», — заявили в компании.
В дальнейшем Anthropic заявила, что будет защищать себя, совершенствуя системы обнаружения, помогающие обнаруживать сомнительный трафик, обмениваясь информацией об угрозах и ужесточая контроль доступа, среди прочего.
Фирма также призвала к более тесному сотрудничеству со стороны отечественных участников отрасли и законодателей, чтобы помочь остановить нападки иностранных компаний, занимающихся искусственным интеллектом, на американские фирмы.
“Ни одна компания не сможет решить эту проблему в одиночку. Как мы уже отмечали выше, атаки такого масштаба требуют скоординированного реагирования всей индустрии искусственного интеллекта, поставщиков облачных услуг и политиков. Мы публикуем это, чтобы сделать доказательства доступными для всех, кто заинтересован в результате”.






