OpenAI je u utorak objavio set smjernica koje programeri mogu koristiti za povećanje sigurnosti svojih aplikacija za tinejdžere. AI laboratorij izjavio je da se politike sigurnosti za tinejdžere mogu koristiti s njegovim modelom sigurnosti otvorenih težina poznatim kao gpt-oss-safeguard.
Umjesto da počinju od nule u pokušaju da osiguraju AI za tinejdžere, programeri mogu koristiti ove smjernice kako bi poboljšali ono što razvijaju. One se bave pitanjima poput grafičkog nasilja i seksualnog sadržaja, štetnih tjelesnih idealâ i ponašanja, opasnih aktivnosti i izazova, romantične ili nasilne igre uloga te proizvoda i usluga s ograničenjima prema dobi.
Ove sigurnosne politike osmišljene su kao smjernice, što ih čini lako kompatibilnima s drugim modelima osim gpt-oss-safeguard, iako su vjerojatno najučinkovitije unutar vlastitog ekosustava OpenAI-a.
Za pisanje ovih smjernica, OpenAI je surađivao s nadzornicima sigurnosti AI-a kao što su Common Sense Media i everyone.ai.
“Ove politike temeljene na smjernicama pomažu postaviti značajnu sigurnosnu osnovu u cijelom ekosustavu, a budući da su objavljene kao otvoreni izvor, mogu se prilagođavati i poboljšavati tijekom vremena,” izjavio je Robbie Torney, voditelj AI i digitalnih procjena u Common Sense Media.
OpenAI je napomenuo na svom blogu da programeri, uključujući iskusne timove, često imaju poteškoća u prevođenju sigurnosnih ciljeva u precizna operativna pravila.
“To može dovesti do praznina u zaštiti, neujednačene provedbe ili preširokog filtriranja,” napisala je kompanija. “Jasne, dobro definirane politike ključna su osnova za učinkovite sigurnosne sustave.”
OpenAI priznaje da ove politike nisu rješenje za složene izazove sigurnosti AI-a. No, nadovezuju se na prethodne napore, uključujući zaštite na razini proizvoda poput roditeljskih kontrola i predikcije dobi. Prošle godine, OpenAI je ažurirao smjernice za svoje velike jezične modele — poznate kao Model Spec — kako bi se bavili pitanjem kako bi se njegovi AI modeli trebali ponašati prema korisnicima mlađim od 18 godina.
Međutim, OpenAI nema najbolju povijest. Tvrtka se suočava s nekoliko tužbi koje su podnijele obitelji osoba koje su izvršile samoubojstvo nakon ekstremne upotrebe ChatGPT-a. Ove opasne veze često se formiraju kada korisnik nadmaši zaštitne mjere chatbota, a nijedan model nema potpuno neprobojne zaštite. Ipak, ove politike predstavljaju korak naprijed, posebno jer mogu pomoći neovisnim programerima.



