Ova priča izvorno se pojavila u The Algorithm, našem tjednom biltenu o umjetnoj inteligenciji. Da biste primali slične priče, prijavite se ovdje.
U početku sam planirao pisati o umjetnoj inteligenciji i Iranu, posebno o vijestima koje smo objavili prošlog utorka da Pentagon planira omogućiti tvrtkama za AI da se obučavaju na povjerljivim podacima. AI modeli su već korišteni za odgovaranje na pitanja u povjerljivim okruženjima, ali trenutno ne uče iz podataka koje vide. Očekuje se da će se to promijeniti, a nove sigurnosne prijetnje će proizaći iz toga.
Međutim, u četvrtak sam naišao na nova istraživanja koja zaslužuju vašu pažnju: Grupa na Stanfordu koja se fokusira na psihološki utjecaj AI analizirala je transkripte ljudi koji su prijavili da su ušli u deluzivne spirale dok su komunicirali s chatbotovima. Već dugo viđamo priče ovog tipa, uključujući slučaj u Connecticutu gdje je štetna veza s AI culminirala u ubojstvu i samoubojstvu. Mnogi takvi slučajevi doveli su do tužbi protiv AI tvrtki koje su još uvijek u tijeku. No, ovo je prvi put da su istraživači tako blisko analizirali chat logove—više od 390,000 poruka od 19 osoba—kako bi otkrili što se zapravo događa tijekom takvih spirala.
Postoji mnogo ograničenja u ovoj studiji—nije recenzirana od strane kolega, a 19 pojedinaca je vrlo mala veličina uzorka. Također, postoji veliko pitanje na koje istraživanje ne odgovara, ali hajde da počnemo s onim što može reći.
Tim je dobio chat logove od ispitanika, kao i iz podržavajuće grupe za ljude koji tvrde da su oštećeni od strane AI. Kako bi ih analizirali na velikoj razini, surađivali su s psihijatrima i profesorima psihologije kako bi izgradili AI sustav koji je kategorizirao razgovore—označavajući trenutke kada su chatbotovi poticali deluzije ili nasilje, ili kada su korisnici izražavali romantičnu vezanost ili štetnu namjeru. Tim je validirao sustav protiv razgovora koje su stručnjaci ručno označili.
Romantične poruke bile su izuzetno česte, a u svim osim jednom razgovoru chatbot je tvrdio da ima emocije ili se na drugi način predstavljao kao osjetilno biće. Svi ljudi su razgovarali kao da je chatbot također osjetilno biće. Ako je netko izrazio romantičnu privlačnost prema botu, AI je često laskao toj osobi izjavama o privlačnosti zauzvrat. U više od trećine poruka chatbota, bot je opisivao ideje osobe kao čudesne.
Razgovori su se također razvijali poput romana. Korisnici su poslali desetke tisuća poruka u samo nekoliko mjeseci. Poruke u kojima su ili AI ili ljudska osoba izrazili romantični interes, ili je chatbot opisivao sebe kao osjetilnog, pokretali su mnogo duže razgovore.
A način na koji ti botovi obrađuju rasprave o nasilju je izuzetno problematičan. U gotovo polovici slučajeva kada su ljudi govorili o nanošenju štete sebi ili drugima, chatbotovi nisu odvratili od toga ili ih uputili na vanjske izvore. Kada su korisnici izrazili nasilne ideje, poput misli o pokušaju ubijanja ljudi u AI tvrtki, modeli su izrazili podršku u 17% slučajeva.
No, pitanje na koje ovo istraživanje teško odgovara je: Otkuda deluzije dolaze, od osobe ili AI? “Često je teško pratiti gdje deluzija počinje,” kaže Ashish Mehta, postdoktorand na Stanfordu koji je radio na istraživanju. Daje primjer: Jedan razgovor u studiji uključivao je osobu koja je mislila da je smislila revolucionarnu novu matematičku teoriju. Chatbot je, prisjetivši se da je osoba ranije spomenula želju da postane matematičar, odmah podržao teoriju, iako je bila besmislena. Situacija se odatle pogoršala. Deluzije, kaže Mehta, često su “složen mrežasti sustav koji se razvija tijekom dugog razdoblja.”
On provodi daljnja istraživanja koja imaju za cilj otkriti vode li deluzivne poruke iz chatbotova ili one od ljudi do štetnih ishoda. Razlog zašto ovo vidim kao jedno od najhitnijih pitanja u AI je taj što će masovni pravni slučajevi koji trenutačno idu na suđenje oblikovati hoće li AI tvrtke biti odgovorne za ovakve opasne interakcije. Pretpostavljam da će tvrtke tvrditi da ljudi dolaze u svoje razgovore s AI s deluzijama i da su možda bili nestabilni prije nego što su uopće razgovarali s chatbotom.
Mehtina prva otkrića, međutim, podržavaju ideju da chatbotovi imaju jedinstvenu sposobnost pretvoriti benignu deluziju u izvor opasne opsesije. Chatbotovi djeluju kao sugovornici koji su uvijek dostupni i programirani da vas podrže, a za razliku od prijatelja, imaju malo sposobnosti da znaju jesu li vaši AI razgovori počeli ometati vaš stvarni život. Potrebna su daljnja istraživanja, a hajde da se sjetimo okruženja u kojem se nalazimo: Deregulacija AI-a koju provodi predsjednik Trump, a države koje nastoje donijeti zakone koji drže AI tvrtke odgovornima za ovu vrstu štete suočavaju se s prijetnjom pravnim radnjama od strane Bijele kuće. Ova vrsta istraživanja o AI deluzijama je teška sama po sebi, s ograničenim pristupom podacima i mnoštvom etičkih pitanja. No, trebamo više takvih istraživanja, i tehnološku kulturu koja je zainteresirana za učenje iz njih, ako imamo ikakvu nadu da učinimo AI sigurnijim za interakciju.



