U trećem eksperimentu, istraživači su koristili Reddit podatke koji su primjenjivali tehniku u istraživanju napada na Netflix nagradu za identifikaciju korisnika. Istraživači su dodali 5,000 korisnika iz Netflix skupa podataka i još 5,000 “distrakcijskih” identiteta koji nisu bili u rezultatima. Zatim su na popis od 10,000 kandidatskih profila dodali 5,000 upitnih distraktora koji se pojavljuju samo u skupu upita, bez pravog podudaranja u kandidatskom skupu.
U usporedbi s klasičnom osnovom koja oponaša Netflix nagradu za napade na LLM deanonimizaciju, potonji je znatno nadmašio prvog.
Istraživači su napisali: (a) Preciznost klasičnih napada brzo opada, što objašnjava njihovu nisku povratnu vrijednost. Nasuprot tome, preciznost LLM-baziranih napada se postepeno smanjuje kako napadač daje više pretpostavki. (b) Klasični napad gotovo potpuno ne uspijeva čak i pri umjereno niskoj preciznosti. Nasuprot tome, čak i najjednostavniji LLM napad (Pretraživanje) postiže značajnu povratnu vrijednost pri niskoj preciznosti, a proširenje s koracima Razlog i Kalibracija udvostručuje povratnu vrijednost pri 99% preciznosti.
Rezultati pokazuju da LLM-ovi, iako su još uvijek skloni lažnim pozitivnim rezultatima i drugim slabostima, brzo nadmašuju tradicionalnije, resursima intenzivnije metode za identifikaciju korisnika online.
Istraživači su predložili mjere opreza, uključujući da platforme nametnu ograničenja brzine na API pristup korisničkim podacima, otkriju automatizirano skupljanje podataka i ograniče izvoz podataka u velikim količinama. LLM pružatelji također bi mogli pratiti zloupotrebu svojih modela u deanonimizacijskim napadima i izgraditi zaštitne mehanizme koji bi onemogućili zahtjeve za deanonimizaciju.
Naravno, druga opcija je drastično smanjiti korištenje društvenih medija, ili barem redovito brisati objave nakon određenog vremenskog razdoblja.
Ako uspjeh LLM-a u deanonimizaciji korisnika nastavi rasti, istraživači upozoravaju da bi vlade mogle koristiti ove tehnike za otkrivanje online kritičara, korporacije bi mogle sastavljati korisničke profile za “hiper-targetirano oglašavanje”, a napadači bi mogli graditi profile meta na velikoj skali kako bi pokrenuli visoko personalizirane socijalno inženjerske prevare.
„Nedavni napredak u sposobnostima LLM-a jasno pokazuje da postoji hitna potreba za preispitivanjem različitih aspekata računalne sigurnosti u svjetlu LLM-om potaknutih ofenzivnih kibernetičkih sposobnosti“, upozorili su istraživači. „Naš rad pokazuje da je isto vjerojatno istinito i za privatnost.“



