Kalifornijski državni senator Scott Wiener u srijedu je predstavio nove amandmane na svoj posljednji zakon, SB 53, koji bi zahtijevao od najvećih AI tvrtki da objavljuju protokole sigurnosti i izvještaje kada dođe do sigurnosnih incidenata.
Ako zakon bude potpisan, Kalifornija će biti prva država koja uvodi značajne zahtjeve za transparentnost prema vodećim razvojnim programerima AI-a, vjerojatno uključujući OpenAI, Google, Anthropic i xAI.
Wienerov prethodni zakon o AI-u, SB 1047, sadržavao je slične zahtjeve za programere AI modela da objavljuju izvještaje o sigurnosti. Međutim, Silicon Valley se snažno protivio tom zakonu, koji je konačno vetoirao guverner Gavin Newsom. Kalifornijski guverner tada je pozvao grupu AI lidera — uključujući vodećeg istraživača sa Stanforda i suosnivača World Labs, Fei-Fei Li — da formiraju političku grupu i postave ciljeve za sigurnosne napore u AI-u u državi.
Kalifornijska politička grupa za AI nedavno je objavila svoje konačne preporuke, navodeći potrebu za „zahtjevima za industriju da objavi informacije o svojim sustavima“ kako bi se uspostavilo „robustno i transparentno okruženje dokaza.“ U Wienerovom uredu izjavili su da su amandmani na SB 53 bili pod jakim utjecajem ovog izvještaja.
„Zakon je još uvijek u razradi i radujem se suradnji sa svim dionicima u narednim tjednima kako bismo ovaj prijedlog oblikovali u najznanstveniji i najpravedniji zakon koji može biti“, rekao je senator Wiener u priopćenju.
SB 53 nastoji postići ravnotežu koju je guverner Newsom tvrdio da SB 1047 nije uspio postići — idealno, stvarajući značajne zahtjeve za transparentnost za najveće AI programere bez ometanja brzog rasta kalifornijske AI industrije.
„Ovo su zabrinutosti o kojima je moja organizacija i drugi već neko vrijeme razgovaraju“, rekao je Nathan Calvin, VP za državne poslove neprofitne grupe za sigurnost AI, Encode, u intervjuu za TechCrunch. „Objašnjavanje javnosti i vladi koje mjere poduzimaju kako bi se suočili s tim rizicima čini se kao minimum, razuman korak.“
Zakon također stvara zaštitu za uzbunjivače za zaposlenike AI laboratorija koji vjeruju da tehnologija njihove tvrtke predstavlja „kritični rizik“ za društvo — definirano u zakonu kao doprinos smrti ili ozljedi više od 100 ljudi, ili šteti od više od 1 milijarde dolara.
Uz to, zakon ima za cilj stvoriti CalCompute, javni oblak za računalne klastere koji podržava startupe i istraživače koji razvijaju AI na velikoj skali.
Za razliku od SB 1047, novi zakon senatora Wienera ne čini programere AI modela odgovornima za štetne posljedice svojih AI modela. SB 53 također je osmišljen tako da ne opterećuje startupe i istraživače koji podešavaju AI modele vodećih AI programera ili koriste modele otvorenog koda.
Sa novim amandmanima, SB 53 se sada upućuje Kalifornijskoj državnoj skupštini na odobrenje. Ako prođe, zakon će također morati proći kroz nekoliko drugih zakonodavnih tijela prije nego što dođe do guvernerovog stola.
Na drugoj strani SAD-a, guvernerica New Yorka Kathy Hochul sada razmatra sličan zakon o sigurnosti AI-a, RAISE Act, koji bi također zahtijevao od velikih AI programera da objavljuju izvještaje o sigurnosti i sigurnosti.
Sudbina državnih zakona o AI-u kao što su RAISE Act i SB 53 bila je kratko u opasnosti dok su savezni zakonodavci razmatrali desetogodišnju moratoriju na državnu regulaciju AI-a — pokušaj ograničavanja „patchworka“ zakona o AI-u s kojim bi tvrtke morale navigirati. Međutim, taj je prijedlog neuspješno prošao u Senatu ranije u srpnju.
„Osiguranje da se AI razvija sigurno ne bi trebala biti kontroverzna tema — to bi trebalo biti temeljno“, rekao je Geoff Ralston, bivši predsjednik Y Combinatora, u izjavi za TechCrunch. „Kongres bi trebao biti vođa, zahtijevajući transparentnost i odgovornost od tvrtki koje grade napredne modele. No, bez ozbiljne savezne akcije na vidiku, države moraju preuzeti odgovornost. Kalifornijski SB 53 je promišljen, dobro strukturiran primjer državnog vođenja.“
Do sada, zakonodavci nisu uspjeli uvjeriti AI tvrtke da se pridržavaju državnim zahtjevima za transparentnost. Anthropic je široko podržao potrebu za povećanom transparentnošću u AI tvrtkama i čak je izrazio umjereni optimizam oko preporuka kalifornijske političke grupe za AI. No, tvrtke poput OpenAI, Googlea i Mete bile su otpornije na ove napore.
Vodeći programeri AI modela obično objavljuju izvještaje o sigurnosti svojih AI modela, ali su u posljednjim mjesecima bili manje dosljedni. Google je, na primjer, odlučio ne objaviti izvještaj o sigurnosti za svoj najnapredniji AI model ikada objavljen, Gemini 2.5 Pro, sve do nekoliko mjeseci nakon što je postao dostupan. OpenAI je također odlučio ne objaviti izvještaj o sigurnosti za svoj model GPT-4.1. Kasnije je objavljena studija treće strane koja sugerira da bi mogao biti manje usklađen s prethodnim AI modelima.
SB 53 predstavlja ublaženu verziju prethodnih zakona o sigurnosti AI-a, ali bi mogao prisiliti AI tvrtke da objavljuju više informacija nego što to čine danas. Za sada, pažljivo će pratiti kako senator Wiener ponovno testira te granice.



