Tvrtka Anthropic optužila je tri kineske AI kompanije za postavljanje više od 24,000 lažnih računa koristeći njihov Claude AI model kako bi unaprijedile svoje vlastite modele.
Laboratoriji — DeepSeek, Moonshot AI i MiniMax — navodno su generirali više od 16 milijuna interakcija s Claudeom koristeći tehniku zvanu “destilacija.” Anthropic je izjavio da su laboratoriji “ciljali na najistaknutije sposobnosti Claudea: agentičko rasuđivanje, korištenje alata i kodiranje.”
Ove optužbe dolaze u vrijeme rasprava o tome koliko strogo provoditi kontrolu izvoza naprednih AI čipova, politike koja je usmjerena na ograničavanje razvoja AI u Kini.
Destilacija je uobičajena metoda obuke koju AI laboratoriji koriste na svojim modelima kako bi stvorili manje, jeftinije verzije, ali konkurenti je mogu koristiti kako bi u suštini kopirali rad drugih laboratorija. OpenAI je ranije ovog mjeseca poslao memorandum zakonodavcima u Kongresu optužujući DeepSeek za korištenje destilacije kako bi oponašao svoje proizvode.
DeepSeek je prvi put privukao pažnju prije godinu dana kada je objavio svoj open-source R1 model rasuđivanja koji je gotovo izjednačio performanse američkih laboratorija po znatno nižoj cijeni. Očekuje se da će DeepSeek uskoro objaviti DeepSeek V4, svoj najnoviji model, koji navodno može nadmašiti Claude i ChatGPT u kodiranju.
Obim svakog napada varirao je. Anthropic je pratio više od 150,000 interakcija iz DeepSeek-a koje su se činile usmjerenima na poboljšanje temeljne logike i usklađenosti, posebno oko alternativnih upita koji su sigurni od cenzure.
Moonshot AI imao je više od 3.4 milijuna interakcija koje su se fokusirale na agentičko rasuđivanje, korištenje alata, kodiranje i analizu podataka. Prošli mjesec, tvrtka je objavila novi open-source model Kimi K2.5 i agent za kodiranje.
MiniMax je imao 13 milijuna interakcija usmjerenih na agentičko kodiranje i korištenje alata. Anthropic je izjavio da je mogao promatrati MiniMax dok je preusmjeravao gotovo polovicu svog prometa kako bi isisao sposobnosti iz najnovijeg Claude modela.
Anthropic planira nastaviti ulagati u obranu koja otežava provođenje destilacijskih napada i olakšava njihovo prepoznavanje, ali poziva na “koordinirani odgovor cijele AI industrije, pružatelja oblaka i donosioca odluka.”


