Izvještaj ‘The OpenAI Files’, koji okuplja glasove zabrinutih bivših zaposlenika, tvrdi da najistaknutija AI laboratorija na svijetu izdaje sigurnost zarad profita. Ono što je započelo kao plemenita misija osiguravanja da AI služi cijeloj ljudskoj vrsti sada se nalazi na rubu pretvaranja u još jednog korporativnog giganta, koji juri ogromne profite dok sigurnost i etika ostaju po strani.
U središtu svega je plan za preispitivanje izvornih pravila. Kada je OpenAI započeo, dao je ključnu obećanje: ograničio je koliko novca investitori mogu zaraditi. To je bila zakonska garancija da će, ako uspiju stvoriti AI koji mijenja svijet, ogromne koristi ići cijeloj ljudskoj zajednici, a ne samo nekolicini milijardera. Sada je to obećanje na rubu brisanja, očito kako bi se zadovoljili investitori koji žele neograničene povrate.
Za ljude koji su izgradili OpenAI, ovaj skretanje s AI sigurnosti čini se dubokom izdajom. “Neprofitna misija bila je obećanje da ćemo raditi ispravnu stvar kada su ulozi visoki,” kaže bivša zaposlenica Carroll Wainwright. “Sada kada su ulozi visoki, neprofitna struktura se napušta, što znači da je obećanje na kraju bilo prazno.”
Produbljujuća kriza povjerenja
Mnogi od ovih duboko zabrinutih glasova ukazuju na jednu osobu: CEO-a Sama Altmana. Zabrinutosti nisu nove. Izvještaji sugeriraju da su čak i u njegovim prethodnim tvrtkama, stariji kolege pokušali da ga smijene zbog onoga što su nazivali “zavaravajućim i kaotičnim” ponašanjem.
To isto osjećanje nepovjerenja pratilo ga je i u OpenAI-ju. Suosnivač tvrtke, Ilya Sutskever, koji je radio s Altmanom godinama, došao je do zastrašujuće spoznaje: “Ne mislim da je Sam osoba koja bi trebala imati prst na dugmetu za AGI.” Osjećao je da je Altman nepošten i da stvara kaos, što je zastrašujuća kombinacija za nekoga tko bi potencijalno mogao biti zadužen za našu kolektivnu budućnost.
Mira Murati, bivša CTO, osjećala se jednako nelagodno. “Ne osjećam se ugodno zbog toga da Sam vodi nas prema AGI,” rekla je. Opisala je toksičan obrazac gdje bi Altman govorio ljudima ono što su željeli čuti, a zatim ih undermirao ako su mu stajali na putu. To sugerira manipulaciju koju bivša članica upravnog odbora OpenAI-a Tasha McCauley kaže da “treba biti neprihvatljiva” kada su u pitanju sigurnosni ulozi AI.
Ova kriza povjerenja imala je stvarne posljedice. Unutarnji izvori kažu da se kultura u OpenAI-ju promijenila, s ključnim radom na sigurnosti AI koji je stavljen u drugi plan u korist objavljivanja “sjajnih proizvoda”. Jan Leike, koji je vodio tim odgovoran za dugoročnu sigurnost, rekao je da su “plovili protiv vjetra,” boreći se za resurse koje su trebali za svoje vitalne istraživanja.

Drugi bivši zaposlenik, William Saunders, čak je dao zastrašujuće svjedočanstvo pred američkim Senatom, otkrivajući da je sigurnost tijekom dugih razdoblja bila toliko slaba da su stotine inženjera mogle ukrasti najnapredniji AI tvrtke, uključujući GPT-4.
Hitna molba za prioritizaciju sigurnosti AI u OpenAI
No, oni koji su otišli ne bježe samo. Postavili su plan za povratak OpenAI-ja s ruba, posljednji napor da spase izvorna misija.
Pozivaju na to da se neprofitno srce tvrtke ponovno dobije pravu moć, s čvrstim vetom nad sigurnosnim odlukama. Traže jasnu, iskrenu vodstvo, što uključuje novu i temeljitu istragu o ponašanju Sama Altmana.
Žele stvarnu, neovisnu kontrolu, kako OpenAI ne bi mogao samo markirati vlastiti rad na sigurnosti AI. I mole za kulturu u kojoj ljudi mogu izraziti svoje zabrinutosti bez straha za svoje poslove ili ušteđevinu – mjesto s pravom zaštitom za zviždače.
Naposljetku, inzistiraju da OpenAI ostane pri svom prvotnom financijskom obećanju: gornje granice profita moraju ostati. Cilj mora biti javna korist, a ne neograničeno privatno bogatstvo.
Ovo nije samo unutarnja drama u Silicon Valley tvrtki. OpenAI gradi tehnologiju koja bi mogla preoblikovati naš svijet na načine koje jedva možemo zamisliti. Pitanje koje bivši zaposlenici postavljaju svima nama je jednostavno, ali duboko: kome vjerujemo da gradi našu budućnost?
Kao što je bivša članica upravnog odbora Helen Toner upozorila iz vlastitog iskustva, “unutarnje zaštite su krhke kada je novac u igri”.
Trenutno, ljudi koji najbolje poznaju OpenAI govore nam da su te sigurnosne zaštite gotovo potpuno slomljene.



