Halucinacije umjetne inteligencije postaju sve opasnije dok se modeli sve više koriste za pronalaženje informacija i donošenje ključnih odluka.
Svi imamo onog prijatelja koji sve zna i ne može priznati kada nešto ne zna, ili daje sumnjive savjete temeljem onoga što je pročitao na internetu. Halucinacije AI modela su poput tog prijatelja, ali ovaj bi mogao biti zadužen za izradu plana liječenja raka.
Tada na scenu stupa Themis AI. Ova kompanija iz MIT-a uspjela je postići nešto što se čini jednostavnim u teoriji, ali zapravo je vrlo složeno – poučiti AI sustave da kažu: “Nisam siguran u ovo.”
AI sustavi obično pokazuju prekomjernu samouvjerenost. Themisova platforma Capsa djeluje kao provjera stvarnosti za AI, pomažući modelima da prepoznaju kada se upuštaju u nagađanje umjesto u sigurnost.
Osnovana 2021. godine od strane profesora MIT-a Danielae Rus, zajedno s bivšim istraživačima Alexanderom Aminijem i Elaheh Ahmadi, Themis AI razvila je platformu koja se može integrirati s gotovo bilo kojim AI sustavom kako bi označila trenutke nesigurnosti prije nego što dovedu do pogrešaka.
Capsa zapravo obučava AI da prepoznaje obrasce u načinu na koji obrađuje informacije koji bi mogli ukazivati na to da je zbunjen, pristran ili radi s nepotpunim podacima koji bi mogli dovesti do halucinacija.
Od svog lansiranja, Themis tvrdi da je pomogla telekomunikacijskim tvrtkama da izbjegnu skupe pogreške u planiranju mreže, pomogla naftnim i plinskim tvrtkama u razumijevanju složenih seizmičkih podataka, te objavila istraživanja o stvaranju chatbotova koji ne izmišljaju stvari s prekomjernom samouvjerenošću.
Većina ljudi nije svjesna koliko često AI sustavi jednostavno donose svoje najbolje pretpostavke. Kako ovi sustavi preuzimaju sve važnije zadatke, te pretpostavke mogu imati ozbiljne posljedice. Softver Themis AI dodaje sloj samosvijesti koji nedostaje.
Put Themis AI prema rješavanju halucinacija AI-a
Put do Themis AI započeo je prije nekoliko godina u laboratoriju profesora Rus na MIT-u, gdje je tim istraživao temeljni problem: kako učiniti stroj svjesnim vlastitih ograničenja?
Godine 2018. Toyota je financirala njihovo istraživanje pouzdane umjetne inteligencije za autonomna vozila – sektor u kojem bi pogreške mogle biti smrtonosne. Uloga je izuzetno visoka kada autonomna vozila moraju točno identificirati pješake i druge opasnosti na cesti.
Njihov proboj dogodio se kada su razvili algoritam koji može uočiti rasnu i spolnu pristranost u sustavima prepoznavanja lica. Umjesto da samo identificiraju problem, njihov sustav ga zapravo ispravlja rebalansiranjem podataka za obuku – u osnovi poučavajući AI da ispravi vlastite predrasude.
Do 2021. godine, demonstrirali su kako ovaj pristup može revolucionirati otkrivanje lijekova. AI sustavi mogli su procijeniti potencijalne lijekove, ali – ključno – označiti kada su njihova predviđanja temeljena na čvrstim dokazima nasuprot obrazovanom nagađanju ili potpunim halucinacijama. Farmaceutska industrija prepoznala je potencijalne uštede novca i vremena fokusirajući se samo na kandidate za lijekove u koje je AI bio siguran.
Još jedna prednost ove tehnologije je za uređaje s ograničenim računalnim resursima. Edge uređaji koriste manje modele koji ne mogu dostići točnost ogromnih modela pokrenutih na serveru, ali uz Themisovu tehnologiju, ti će uređaji biti daleko sposobniji obavljati većinu zadataka lokalno i samo tražiti pomoć od velikih servera kada se suoče s nečim izazovnim.
AI ima ogroman potencijal za poboljšanje naših života, ali taj potencijal dolazi s pravim rizicima. Kako AI sustavi postaju sve više integrirani u kritičnu infrastrukturu i donošenje odluka, sposobnost priznanja nesigurnosti koja dovodi do halucinacija mogla bi se pokazati kao njihova najhumanija – i najvrednija – kvaliteta. Themis AI osigurava da nauče ovu ključnu vještinu.



