OpenAI je navodno prepravio svoje sigurnosne operacije kako bi se zaštitio od korporativne špijunaže. Prema Financial Timesu, kompanija je ubrzala postojeće mjere sigurnosti nakon što je kineski startup DeepSeek u siječnju predstavio konkurentski model, a OpenAI je optužio DeepSeek da je neprimjereno kopirao njegove modele koristeći tehnike “destilacije”.
Poboljšana sigurnost uključuje politike “informacijskog šatora” koje ograničavaju pristup zaposlenika osjetljivim algoritmima i novim proizvodima. Na primjer, tijekom razvoja OpenAI-ovog o1 modela, samo verificirani članovi tima koji su bili uključeni u projekt mogli su o njemu razgovarati u zajedničkim uredskim prostorima, navodi FT.
A tu je još više. OpenAI sada izolira vlasničku tehnologiju u offline računalnim sustavima, implementira biometrijske kontrole pristupa za uredske prostore (skanira otiske prstiju zaposlenika) i održava politiku “odbijanja po defaultu” na internetu koja zahtijeva izričitu odobrenje za vanjske veze. Prema izvještaju, kompanija je također povećala fizičku sigurnost u podatkovnim centrima i proširila svoj osoblje za kibernetsku sigurnost.
Promjene se navodno odražavaju na širim brigama o stranim protivnicima koji pokušavaju ukrasti OpenAI-ovu intelektualnu svojinu. Ipak, s obzirom na tekuće ratove za pojačanja među američkim AI kompanijama i sve učestalije curenje komentara izvršnog direktora Sama Altmana, OpenAI također može pokušavati riješiti interne sigurnosne probleme.
Kontaktirali smo OpenAI za komentar.



