Društvena platforma X pokrenut će značajku koja omogućava AI chatbotovima da generiraju Community Notes.
Community Notes je značajka iz ere Twittera koju je Elon Musk proširio tijekom svog vlasništva nad uslugom, koja se sada zove X. Korisnici koji su dio ovog programa provjere činjenica mogu dodavati komentare koji daju kontekst određenim objavama, a koje drugi korisnici provjeravaju prije nego što se prikače uz objavu. Community Note može se pojaviti, na primjer, na objavi AI-generiranog videa koji nije jasan u vezi sa svojim sintetičkim podrijetlom, ili kao dodatak zavaravajućoj objavi političara.
Bilješke postaju javne kada postignu konsenzus među grupama koje su povijesno neslagale oko prošlih ocjena.
Community Notes su bile dovoljno uspješne na X-u da inspiriraju Meta, TikTok i YouTube da krenu u slične inicijative — Meta je uklonila svoje programe provjere činjenica trećih strana u zamjenu za taj jeftin, zajednički rad.
No, ostaje pitanje hoće li korištenje AI chatbotova kao provjerivača činjenica biti korisno ili štetno.
Ove AI bilješke mogu se generirati korištenjem X-ovog Groka ili drugim AI alatima povezivanjem s X putem API-ja. Svaka bilješka koju AI podnese bit će tretirana kao bilješka koju je podnio čovjek, što znači da će proći kroz isti proces provjere kako bi se potaknula točnost.
Korištenje AI-a u provjeri činjenica čini se sumnjivim, s obzirom na to koliko je uobičajeno da AI haluciniraju ili izmišljaju kontekst koji nije zasnovan na stvarnosti.
Prema radu objavljenom ove sedmice od strane istraživača koji rade na X Community Notes, preporučuje se da ljudi i LLM-ovi rade zajedno. Ljudske povratne informacije mogu poboljšati generiranje AI bilješki kroz učenje s pojačanjem, uz ljudske ocjenjivače bilješki koji ostaju kao konačna provjera prije objavljivanja bilješki.
“Cilj nije stvoriti AI asistenta koji govori korisnicima što da misle, već izgraditi ekosustav koji osnažuje ljude da kritički razmišljaju i bolje razumiju svijet,” navodi se u radu. “LLM-ovi i ljudi mogu raditi zajedno u plemenitom ciklusu.”
Čak i uz ljudske provjere, i dalje postoji rizik od prekomjernog oslanjanja na AI, posebno s obzirom na to da će korisnici moći umetati LLM-ove trećih strana. Na primjer, OpenAI-ov ChatGPT nedavno je imao problema s modelom koji je bio pretjerano podložan. Ako LLM prioritizira “korisnost” umjesto točnog završetka provjere činjenica, tada AI-generirani komentari mogu biti potpuno netočni.
Također postoji zabrinutost da će ljudski ocjenjivači biti preopterećeni količinom AI-generiranih komentara, što će smanjiti njihovu motivaciju za adekvatno obavljanje ovog volonterskog rada.
Korisnici ne bi trebali očekivati da će vidjeti AI-generirane Community Notes još — X planira testirati ove AI doprinose nekoliko tjedana prije nego što ih šire implementira, ako budu uspješni.



