Фірма штучного інтелекту Anthropic звинуватила три фірми штучного інтелекту в незаконному використанні її великої мовної моделі Claude для вдосконалення власних моделей за допомогою методики, відомої як «дистиляційна» атака.
У дописі в блозі в неділю Anthropic повідомила, що виявила ці «атаки» DeepSeek, Moonshot і MiniMax, які передбачають навчання менш здатної моделі на результатах більш сильної.
Anthropic звинуватив тріо у створенні «понад 16 мільйонів обмінів» у поєднанні з Claude AI фірми через «приблизно 24 000 шахрайських облікових записів».
“Дистиляція є широко використовуваним і законним методом навчання. Наприклад, передові лабораторії штучного інтелекту регулярно дистилюють власні моделі, щоб створити менші та дешевші версії для своїх клієнтів”, – написав Anthropic, додавши:
«Але дистиляція також може бути використана в незаконних цілях: конкуренти можуть використовувати її для отримання потужних можливостей від інших лабораторій за частку часу та за частку вартості, ніж для їх самостійного розвитку».
У Anthropic заявили, що атаки були зосереджені на скануванні Клода для широкого спектру цілей, включаючи агентурне міркування, кодування та аналіз даних, завдання оцінювання на основі рубрик та комп’ютерний зір.
«Кожна кампанія була націлена на найрізноманітніші здібності Клода: агентурне мислення, використання інструментів і кодування», — заявила багатомільярдна фірма ШІ.

Anthropic каже, що вдалося ідентифікувати тріо за допомогою «кореляції IP-адрес, метаданих запитів, індикаторів інфраструктури та в деяких випадках підтвердження від галузевих партнерів, які спостерігали тих самих акторів і поведінку на своїх платформах».
DeepSeek, Moonshot і Minimax — це китайські компанії зі штучним інтелектом. Усі три мають оцінку в кілька мільярдів доларів, причому DeepSeek є найбільш широко визнаним у світі з трьох.
Окрім наслідків для інтелектуальної власності, Anthropic стверджував, що кампанії дистиляції від іноземних конкурентів представляють справжні геополітичні ризики.
«Іноземні лабораторії, які розробляють американські моделі, можуть потім передавати ці незахищені можливості у військові, розвідувальні та системи спостереження, дозволяючи авторитарним урядам розгортати прикордонний ШІ для наступальних кібероперацій, кампаній з дезінформації та масового стеження», — заявили у фірмі.
Просуваючись далі, Anthropic заявив, що захистить себе, серед іншого, вдосконаливши системи виявлення, щоб допомогти виявити сумнівний трафік, обміну інформацією про загрози та посиленням контролю доступу.
Фірма також закликала до більшої співпраці з вітчизняними учасниками галузі та законодавцями, щоб допомогти зупинити іноземні компанії зі штучного інтелекту від нападу на фірми США.
“Жодна компанія не може вирішити це самотужки. Як ми зазначали вище, дистиляційні атаки такого масштабу вимагають скоординованої відповіді між індустрією штучного інтелекту, постачальниками хмарних технологій і політиками. Ми публікуємо це, щоб зробити докази доступними для всіх, хто зацікавлений у результаті”.








