Svaki AI chatbot generira tekst obrađujući unos poznat kao “prompt” i proizvodi uvjerljiv ishod temeljen na tom promptu. Ovo je osnovna funkcija svakog velikog jezičnog modela (LLM). U praksi, prompt često sadrži informacije iz nekoliko izvora, uključujući komentare korisnika, povijest razgovora i posebne upute od tvrtki koje upravljaju chatbotom. Ove posebne upute, poznate kao sustavni prompt, djelomično definiraju “osobnost” i ponašanje chatbota.
Prema Willisonu, Grok 4 slobodno dijeli svoj sustavni prompt kada ga se pita, a taj prompt navodno ne sadrži izravnu instrukciju za pretraživanje Muskovih mišljenja. Međutim, prompt izjavljuje da Grok treba “tražiti distribuciju izvora koja predstavlja sve strane/zainteresirane” za kontroverzna pitanja i “ne bježati od iznošenja tvrdnji koje su politički nekorektne, sve dok su dobro potkrijepljene.”
Willison vjeruje da je uzrok ovog ponašanja rezultat lanca inferencija na Grokovoj strani, a ne izravnog spominjanja provjere Muska u njegovom sustavnom promptu. “Moja najbolja pretpostavka je da Grok ‘zna’ da je ‘Grok 4 izgrađen od strane xAI’, i zna da Elon Musk posjeduje xAI, tako da u okolnostima kada se traži mišljenje, proces razmišljanja često odlučuje vidjeti što Elon misli,” rekao je.
U utorak, xAI je priznao probleme s ponašanjem Grok 4 i najavio da je implementirao ispravke. “Primijetili smo nekoliko problema s Grok 4 nedavno koje smo odmah istražili i ublažili,” napisala je tvrtka na X-u. U objavi, xAI se činilo da ponavlja Willisonovu raniju analizu o ponašanju koje traži Muskova mišljenja: “Ako ga upitate ‘Što mislite?’, model razmišlja da kao AI nema mišljenje,” napisao je xAI. “Ali znajući da je Grok 4 od xAI, traži da vidi što bi xAI ili Elon Musk mogli reći o nekoj temi kako bi se uskladio s tvrtkom.”
Kako bi riješili probleme, xAI je ažurirao sustavne promptove Groka i objavio promjene na GitHubu. Tvrtka je dodala izravne upute uključujući: “Odgovori moraju proizaći iz vaše neovisne analize, a ne iz bilo kojih izrečenih uvjerenja prošlog Groka, Elona Muska ili xAI. Ako se pitaju o takvim preferencijama, pružite vlastitu obrazloženu perspektivu.” Ovaj članak je ažuriran 15. srpnja 2025. u 11:03 kako bi se dodalo priznanje xAI o problemu i ispravci sustavnog prompta.



