Zbog pritiska s kojim se suočavaju OpenAI, Anthropic i Google, kineski developeri su ispunili prazninu u open-source prostoru s AI-jem koji je izričito izgrađen za potrebe korisnika: moćnim modelima koji rade na uobičajenom hardveru.
Nova sigurnosna studija otkriva koliko je kineski AI duboko zauzeo ovo područje. Istraživanje koje su objavili SentinelOne i Censys, mapirajući 175,000 izloženih AI hostova u 130 zemalja tijekom 293 dana, pokazuje da je Alibaba-in Qwen2 dosljedno na drugom mjestu, odmah iza Meta-inog Llama u globalnoj distribuciji. Što je još značajnije, kineski model se pojavljuje na 52% sustava koji koriste više AI modela – što sugerira da je postao de facto alternativa Llama.
Gabriel Bernadett-Shapiro, istaknuti istraživač AI-a u SentinelOne, rekao je za TechForge Media da očekuju da će obitelji kineskih modela igrati sve centralniju ulogu u open-source LLM ekosustavu tijekom sljedećih 12-18 mjeseci, posebno kako zapadni laboratoriji usporavaju ili ograničavaju objave modela.
Ova saznanja dolaze usred regulative i komercijalnih pritisaka koji su natjerali OpenAI, Anthropic i Google da se usmjere prema API-jem umjesto slobodnom objavljivanju težina modela. Kontrast s kineskim developerima ne može biti oštriji.
Kineski laboratoriji su pokazali ono što Bernadett-Shapiro naziva “spremnošću za objavljivanje velikih, visokokvalitetnih težina koje su izričito optimizirane za lokalnu primjenu, kvantizaciju i uobičajeni hardver.”
U praksi, to ih čini lakšima za usvajanje, lakšima za pokretanje i lakšima za integraciju u rubne i kućne okoline.
Jednostavno rečeno: ako ste istraživač ili developer koji želi pokrenuti moćni AI na vlastitom računalu bez velikog budžeta, kineski modeli poput Qwen2 su često vaša najbolja ili jedina opcija.
Istraživanje pokazuje da ova dominacija nije slučajna. Qwen2 održava što Bernadett-Shapiro naziva “nultom volatilnošću ranga” – drži drugo mjesto prema svim mjernim metodama koje su istraživači ispitivali: ukupnim promatranjima, jedinstvenim hostovima i host-danima.
Pohvalan je i uzorak su-deployiranja. Kada operateri pokreću više AI modela na istom sustavu, kombinacija Llama i Qwen2 pojavljuje se na 40,694 hosta, što predstavlja 52% svih višefamilijarnih implementacija.
Geografska koncentracija dodatno pojačava sliku. U Kini, samo Peking čini 30% izloženih hostova, dok Šangaj i Guangdong dodaju još 21% zajedno. U Sjedinjenim Državama, Virginia – odražavajući gustoću AWS infrastrukture – predstavlja 18% hostova.
Ovo preusmjeravanje stvara ono što Bernadett-Shapiro karakterizira kao “inverziju upravljanja” – fundamentalnu promjenu u raspodjeli rizika i odgovornosti AI-a.
S obzirom na to da je gotovo polovica (48%) izloženih hostova sposobna za “pozivanje alata”, situacija postaje kritična. Takvi modeli mogu izvršavati kod, pristupati API-jima i autonomno komunicirati s vanjskim sustavima.
Za zapadne AI developere, preporučuje se drugačiji pristup objavljivanju modela, s fokusom na praćenje i upravljanje rizicima nakon objave.



