Srijeda, 22 travnja, 2026
10.6 C
London

OpenAI uvodi nove sigurnosne politike za tinejdžere

OpenAI je u utorak objavio set smjernica koje programeri mogu koristiti za povećanje sigurnosti svojih aplikacija za tinejdžere. AI laboratorij izjavio je da se politike sigurnosti za tinejdžere mogu koristiti s njegovim modelom sigurnosti otvorenih težina poznatim kao gpt-oss-safeguard.

Umjesto da počinju od nule u pokušaju da osiguraju AI za tinejdžere, programeri mogu koristiti ove smjernice kako bi poboljšali ono što razvijaju. One se bave pitanjima poput grafičkog nasilja i seksualnog sadržaja, štetnih tjelesnih idealâ i ponašanja, opasnih aktivnosti i izazova, romantične ili nasilne igre uloga te proizvoda i usluga s ograničenjima prema dobi.

Ove sigurnosne politike osmišljene su kao smjernice, što ih čini lako kompatibilnima s drugim modelima osim gpt-oss-safeguard, iako su vjerojatno najučinkovitije unutar vlastitog ekosustava OpenAI-a.

Za pisanje ovih smjernica, OpenAI je surađivao s nadzornicima sigurnosti AI-a kao što su Common Sense Media i everyone.ai.

“Ove politike temeljene na smjernicama pomažu postaviti značajnu sigurnosnu osnovu u cijelom ekosustavu, a budući da su objavljene kao otvoreni izvor, mogu se prilagođavati i poboljšavati tijekom vremena,” izjavio je Robbie Torney, voditelj AI i digitalnih procjena u Common Sense Media.

OpenAI je napomenuo na svom blogu da programeri, uključujući iskusne timove, često imaju poteškoća u prevođenju sigurnosnih ciljeva u precizna operativna pravila.

“To može dovesti do praznina u zaštiti, neujednačene provedbe ili preširokog filtriranja,” napisala je kompanija. “Jasne, dobro definirane politike ključna su osnova za učinkovite sigurnosne sustave.”

OpenAI priznaje da ove politike nisu rješenje za složene izazove sigurnosti AI-a. No, nadovezuju se na prethodne napore, uključujući zaštite na razini proizvoda poput roditeljskih kontrola i predikcije dobi. Prošle godine, OpenAI je ažurirao smjernice za svoje velike jezične modele — poznate kao Model Spec — kako bi se bavili pitanjem kako bi se njegovi AI modeli trebali ponašati prema korisnicima mlađim od 18 godina.

Međutim, OpenAI nema najbolju povijest. Tvrtka se suočava s nekoliko tužbi koje su podnijele obitelji osoba koje su izvršile samoubojstvo nakon ekstremne upotrebe ChatGPT-a. Ove opasne veze često se formiraju kada korisnik nadmaši zaštitne mjere chatbota, a nijedan model nema potpuno neprobojne zaštite. Ipak, ove politike predstavljaju korak naprijed, posebno jer mogu pomoći neovisnim programerima.

Hot this week

Meta koristi zaposlenike za obuku AI modela

Meta je pronašla novi izvor podataka za obuku svojih...

Neovlašteni korisnici pristupili alatu Mythos

Grupa neovlaštenih korisnika navodno je stekla pristup Mythosu, alatu...

SpaceX i Cursor: Veliki poslovni potez

Tvrtka SpaceX objavila je da je sklopila dogovor s...

Izazovi koje nasljednik Tima Cooka nasljeđuje

Tim Cook, dosadašnji izvršni direktor Applea, tijekom svoje 15-godišnje...

NeoCognition razvija samoučeće AI agente

Investitori aktivno traže AI istraživače kako bi izgradili startupe...

Topics

Meta koristi zaposlenike za obuku AI modela

Meta je pronašla novi izvor podataka za obuku svojih...

Neovlašteni korisnici pristupili alatu Mythos

Grupa neovlaštenih korisnika navodno je stekla pristup Mythosu, alatu...

SpaceX i Cursor: Veliki poslovni potez

Tvrtka SpaceX objavila je da je sklopila dogovor s...

Izazovi koje nasljednik Tima Cooka nasljeđuje

Tim Cook, dosadašnji izvršni direktor Applea, tijekom svoje 15-godišnje...

NeoCognition razvija samoučeće AI agente

Investitori aktivno traže AI istraživače kako bi izgradili startupe...

Napredak generiranja slika pomoću AI-a

Prije dvije godine bilo je lako razlikovati slike koje...

Sukob OpenAI i Anthropic oko marketinga

UkratkoObjavljeno: 11:51 AM PDT · 21. travnja 2026.OpenAI i...

Clarifai obrisao 3 milijuna fotografija s OkCupida

Platforma umjetne inteligencije Clarifai obrisala je 3 milijuna fotografija...
spot_img

Related Articles

Popular Categories

spot_imgspot_img