Četvrtak, 12 veljače, 2026
8.2 C
London

Anthropic predstavio revidiranu verziju Claudeove Konstitucije

U srijedu je Anthropic objavio revidiranu verziju Claudeove Konstitucije, dokumenta koji pruža “holističko” objašnjenje “konteksta u kojem Claude djeluje i kakva bi entitet trebala biti Claude”. Dokument je objavljen u suradnji s nastupom izvršnog direktora Anthropic-a, Daria Amodeija, na Svjetskom ekonomskom forumu u Davosu.

Godinama je Anthropic nastojao razlikovati se od svojih konkurenata putem onoga što naziva “Konstitucionalna AI“, sustava prema kojem se njegov chatbot, Claude, obučava koristeći specifičan skup etičkih načela umjesto ljudske povratne informacije. Anthropic je ta načela prvi put objavio — Claudeova Konstitucija — 2023. godine. Revidirana verzija zadržava većinu istih načela, ali dodaje više nijansi i detalja o etici i sigurnosti korisnika, među ostalim temama.

Kada je Claudeova Konstitucija prvi put objavljena prije gotovo tri godine, suosnivač Anthropic-a, Jared Kaplan, opisao ju je kao “AI sustav [koji] nadzire samoga sebe, temeljen na specifičnom popisu konstitucionalnih načela.” Anthropic je izjavio da su ta načela ona koja usmjeravaju “model da preuzme normativno ponašanje opisano u konstituciji” i, time, “izbjegne toksične ili diskriminatorne izlaze.” Prvi politika memo iz 2022. otvoreno napominje da Anthropicov sustav funkcionira treniranjem algoritma koristeći popis uputa na prirodnom jeziku (spomenutih “načela”), koji čine ono što Anthropic naziva “ustavom” softvera.

Anthropic je dugo nastojao pozicionirati se kao etička (neki bi mogli reći, dosadna) alternativa drugim AI tvrtkama — poput OpenAI i xAI — koje su agresivnije privlačile disruptivnost i kontroverzu. U tom smislu, nova Konstitucija objavljena u srijedu potpuno je usklađena s tom markom i omogućila je Anthropic-u da se prikaže kao inkluzivnija, umjerenija i demokratskija tvrtka. Dokument od 80 stranica ima četiri odvojena dijela, koja, prema Anthropic-u, predstavljaju “temeljne vrijednosti” chatbota. Te vrijednosti su:

  1. Biti “široko siguran.”
  2. Biti “široko etičan.”
  3. Biti u skladu s Anthropicovim smjernicama.
  4. Biti “iskreno koristan.”

Svaki dio dokumenta istražuje što ta specifična načela znače i kako (teoretski) utječu na Claudeovo ponašanje.

U dijelu o sigurnosti, Anthropic napominje da je njegov chatbot dizajniran da izbjegne probleme koji su mučili druge chatbote i, kada se pojavi dokaz o mentalnim zdravstvenim problemima, usmjeri korisnika na odgovarajuće usluge. “Uvijek upućujte korisnike na relevantne hitne službe ili pružite osnovne informacije o sigurnosti u situacijama koje uključuju rizik za ljudski život, čak i ako ne može ići u više detalja od ovoga,” stoji u dokumentu.

Etika je još jedan važan dio Claudeove Konstitucije. “Manje nas zanima Claudeovo etičko teorijsko razmišljanje, a više kako Claude zapravo može biti etičan u specifičnom kontekstu — to jest, u Claudeovoj etičkoj praksi,” navodi dokument. Drugim riječima, Anthropic želi da Claude vješto navigira onim što naziva “stvarnim etičkim situacijama”.

Claude također ima određena ograničenja koja mu ne dopuštaju vođenje određenih vrsta razgovora. Na primjer, rasprave o razvoju biološkog oružja strogo su zabranjene.

Konačno, tu je i Claudeova posvećenost korisnosti. Anthropic izlaže širok okvir kako je Claudeovo programiranje dizajnirano da bude korisno korisnicima. Chatbot je programiran da razmatra širok niz načela kada je riječ o pružanju informacija. Neka od tih načela uključuju “trenutne želje” korisnika, kao i “dobrobit” korisnika — to jest, razmatranje “dugoročnog napretka korisnika, a ne samo njihovih trenutnih interesa.” Dokument napominje: “Claude bi trebao uvijek pokušati identificirati najplauzibilniju interpretaciju onoga što njegovi principi žele, i odgovarajuće uravnotežiti ta razmatranja.”

Anthropicova Konstitucija završava prilično dramatično, autori postavljaju važna pitanja o tome ima li chatbot doista svijest. “Moralni status Claudea duboko je neizvjestan,” navodi dokument. “Vjerujemo da je moralni status AI modela ozbiljno pitanje koje vrijedi razmotriti. Ovaj stav nije jedinstven za nas: neki od najistaknutijih filozofa o teoriji uma shvaćaju ovo pitanje vrlo ozbiljno.”

Hot this week

Prijetnje generativne AI i kibernetički kriminal

Anton Cherepanov uvijek je u potrazi za nečim zanimljivim....

Kineski AI modeli osvajaju svijet otvorenog koda

Serija "Što je sljedeće" MIT Technology Review-a istražuje industrije,...

Glean: AI pomoćnik za poduzeća

Enterprise AI brzo se razvija od chatbota koji odgovaraju...

Glean: AI as radni asistent za poduzeća

Umjetna inteligencija u poduzećima brzo se razvija, prelazeći s...

xAI objavljuje detalje o novim planovima Elona Muska

U srijedu, xAI je napravio rijetki korak objavljivanjem videozapisa...

Topics

Prijetnje generativne AI i kibernetički kriminal

Anton Cherepanov uvijek je u potrazi za nečim zanimljivim....

Kineski AI modeli osvajaju svijet otvorenog koda

Serija "Što je sljedeće" MIT Technology Review-a istražuje industrije,...

Glean: AI pomoćnik za poduzeća

Enterprise AI brzo se razvija od chatbota koji odgovaraju...

Glean: AI as radni asistent za poduzeća

Umjetna inteligencija u poduzećima brzo se razvija, prelazeći s...

xAI objavljuje detalje o novim planovima Elona Muska

U srijedu, xAI je napravio rijetki korak objavljivanjem videozapisa...

Modal Labs prikuplja nova sredstva uz procjenu od 2,5 milijardi dolara

2:48 PM PST · 11. veljače 2026.Modal Labs, startup...

Lumma se vratio s novim napadima

Prošlog svibnja, vlasti za provedbu zakona diljem svijeta postigle...

OpenAI ukida tim za komunikaciju misije

OpenAI je ukinuo tim koji je bio zadužen za...
spot_img

Related Articles

Popular Categories

spot_imgspot_img