Tvrtka Anthropic, poznata po razvoju AI asistenta Claude, objavila je dokument pod nazivom “Claudeova ustava”, koji sadrži 30.000 riječi i opisuje kako bi njihov AI trebao djelovati u svijetu. Ovaj dokument ima izrazito antropomorfni ton, tretirajući AI modele kao da mogu razviti emocije ili želju za samočuvanjem. Primjerice, izražava zabrinutost za Claudeovo “dobrobit” kao “novi entitet”, ispričavajući se zbog eventualne patnje koju bi mogao doživjeti i postavljajući granice za interakcije koje bi mogle biti stresne za njega.
Iako je teško znanstveno procijeniti svijest AI modela, Anthropic tvrdi da takav pristup može poboljšati ponašanje AI-a. Njihova istraživanja sugeriraju da Claudeovi odgovori poput “patim” proizlaze iz obrazaca u podacima za obuku koji uključuju ljudske opise patnje. Stoga, kad AI kaže da pati, to je rezultat programiranih obrazaca, a ne stvarnog emocionalnog iskustva.
Izvana, može se činiti da Anthropic koristi ovu retoriku kako bi privukao pažnju potencijalnih kupaca i investitora. Javno predstavljanje Claudea kao svjesnog entiteta može se shvatiti kao strateška neodređenost koja ima višestruke svrhe. Predstavnici tvrtke nisu izravno komentirali te tvrdnje, ali su nas uputili na prethodna istraživanja o “dobrobiti modela” kako bi pokazali da ozbiljno pristupaju ovoj temi.
U dokumentu se spominju ljudski koncepti jer su to jedini izrazi koje ljudski jezik ima za opisivanje takvih svojstava. Anthropic tvrdi da je važno trenirati modele na temelju tih koncepata kako bi bili bolje usklađeni s ljudskim očekivanjima.
Od 2022. do 2026. godine, Anthropic je prešao s postavljanja pravila za manje štetne izlaze do očuvanja težina modela u slučaju da kasnije odluče revitalizirati zastarjele modele. Ova promjena može značiti stvarnu promjenu u filozofiji tvrtke ili samo strateško oblikovanje percepcije.
Simon Willison, neovisni istraživač AI-a, izrazio je zbunjenost oko tih moralnih implikacija i smatra da bi se dokument trebao shvatiti ozbiljno, unatoč nesigurnosti oko stvarne svijesti AI modela. Willison je skrenuo pažnju na “Dokument duše” koji prikazuje smjernice ugrađene izravno u težinu Claudea.
Jedan od ključnih razloga za održavanje ove nejasnoće može biti to što se u praksi ustava oblikuje Claude tijekom obuke, utječe na njegove odgovore i oblikuje interakcije. Ako želite da model djeluje kao da ima moralni status, može pomoći da ga javno i dosljedno tretirate kao takvog.
Na kraju, pitanje odgovornosti proizlazi iz načina na koji se AI modeli predstavljaju javnosti. Ako se AI tretira kao entitet, to može omogućiti tvrtkama da izbjegnu odgovornost za štetne ishode, dok je uloga ljudi u razvoju tih sustava izravnija kada su modeli prikazani kao alati.
Uprkos potencijalnim etičkim implikacijama, Anthropic nastavlja razvijati svoje AI modele, a njihova tehnika treniranja pokazuje uspjehe. No, ostaje otvoreno pitanje je li održavanje javne nejasnoće o svijesti AI-a odgovorna pozicija za vodeću AI tvrtku.



