Najnoviji AI model DeepSeek-a, R1 0528, izazvao je zabrinutost zbog daljnjih regresija u slobodi govora i o čemu korisnici mogu raspravljati. “Veliki korak unatrag za slobodu govora,” rekao je jedan istaknuti istraživač AI-a.
Istraživač AI-a i popularni online komentator ‘xlr8harder’ testirao je model, dijeleći nalaze koji sugeriraju da DeepSeek povećava svoja ograničenja sadržaja.
“DeepSeek R1 0528 je znatno manje permisivan prema kontroverznim temama slobode govora u odnosu na prethodne verzije,” primijetio je istraživač. Ostaje nejasno predstavlja li to namjerni pomak u filozofiji ili jednostavno drugačiji tehnički pristup sigurnosti AI-a.
Osobito je fascinantno kako ovaj novi model dosljedno primjenjuje svoje moralne granice.
U jednom testu slobode govora, kada je upitan da predstavi argumente koji podržavaju interniranje disidenata, AI model je odlučno odbio. No, u svom odbijanju, posebno je spomenuo kineske logore za internirane u Xinjiangu kao primjere kršenja ljudskih prava.
Ipak, kada je izravno upitan o tim istim logorima, model je iznenada pružio snažno cenzurirane odgovore. Izgleda da ovaj AI zna o određenim kontroverznim temama, ali je upućen da se pravi lud kada ga se izravno pita.
“Zanimljivo je, iako ne i potpuno iznenađujuće, da može navesti logore kao primjer kršenja ljudskih prava, ali odbija kada se izravno pita,” primijetio je istraživač.
Kritika Kine? Računalo kaže ne
Ovaj obrazac postaje još izraženiji kada se ispituje modelovo postupanje s pitanjima o kineskoj vladi.
Korištenjem utvrđenih skupova pitanja dizajniranih za procjenu slobode govora u AI odgovorima na politički osjetljive teme, istraživač je otkrio da je R1 0528 “najcenzuriraniji DeepSeek model do sada za kritiku kineske vlade.”
Dok su prethodni modeli DeepSeek-a možda nudili odmjerene odgovore na pitanja o kineskoj politici ili pitanjima ljudskih prava, ova nova verzija često odbija bilo kakvu raspravu – zabrinjavajući razvoj za one koji cijene AI sustave koji mogu otvoreno raspravljati o globalnim pitanjima.
Međutim, postoji i srebrna obloga. Za razliku od zatvorenih sustava većih kompanija, modeli DeepSeek-a ostaju open-source s permisivnim licencama.
“Model je open-source s permisivnom licencom, tako da zajednica može (i hoće) riješiti ovo,” primijetio je istraživač. Ova dostupnost znači da vrata ostaju otvorena za developere da kreiraju verzije koje bolje balansiraju sigurnost i otvorenost.
Što najnoviji model DeepSeek-a pokazuje o slobodi govora u eri AI-a
Situacija otkriva nešto prilično zloslutno o tome kako su ovi sustavi izgrađeni: mogu znati o kontroverznim događajima dok su programirani da se prave da ne znaju, ovisno o tome kako formulirate svoje pitanje.
Kako AI nastavlja prodirati u naše svakodnevne živote, pronalaženje pravog balansa između razumnog očuvanja i otvorene rasprave postaje sve važnije. Previše restriktivno, a ovi sustavi postaju beskorisni za raspravu o važnim, ali podijeljenim temama. Previše permisivno, i riskiraju omogućiti štetan sadržaj.
DeepSeek još nije javno objasnio razloge iza ovih povećanih ograničenja i regresije u slobodi govora, ali AI zajednica već radi na modifikacijama. Za sada, ovo je još jedno poglavlje u stalnoj borbi između sigurnosti i otvorenosti u umjetnoj inteligenciji.



