Nedavno je jedan korisnik Reddita izrazio svoju “očajnu potrebu za pomoći”: već mjesec dana njegov telefon bio je preplavljen pozivima “stranaca” koji su “tražili odvjetnika, dizajnera proizvoda, bravara.” Čini se da su pozivatelji bili pogrešno usmjereni od strane Googleovog generativnog AI-a. U ožujku je jedan programer iz Izraela kontaktiran putem WhatsAppa nakon što je Googleov chatbot Gemini dao netočne upute za korisničku podršku koje su uključivale njegov broj. A u travnju je doktorand na Sveučilištu Washington eksperimentirao s Geminijem i došao do osobnog broja mobitela svoje kolegice. Istraživači AI-a i stručnjaci za online privatnost već dugo upozoravaju na brojne opasnosti koje generativni AI predstavlja za osobnu privatnost. Ovi slučajevi donose još jedan scenarij koji nas brine: generativni AI otkriva stvarne telefonske brojeve ljudi. (Korisnik Reddita nije odgovorio na više zahtjeva za komentar i nismo mogli neovisno provjeriti njegovu priču.)
Stručnjaci kažu da su ovi propusti u privatnosti najvjerojatnije rezultat korištenja osobnih identificirajućih informacija (PII) u podacima za obuku, iako je teško razumjeti točan mehanizam koji uzrokuje da se stvarni brojevi telefona pojavljuju u odgovorima generiranima putem AI-a. No, bez obzira na razlog, rezultat nije ugodan za ljude na prijemnoj strani—i, još zabrinjavajuće, čini se da postoji malo toga što itko može učiniti da to zaustavi.
Porast od 400% u zahtjevima za privatnost vezanim uz AI
Nema načina da se zna koliko često su telefonski brojevi ljudi izloženi AI chatbotovima, ali stručnjaci vjeruju da se to događa daleko više nego što se javno izvještava. Tvrtka DeleteMe, koja pomaže korisnicima da uklone svoje osobne podatke s interneta, navodi da su upiti korisnika o generativnom AI-u porasli za 400%—do nekoliko tisuća—u posljednjih sedam mjeseci. Ovi upiti “specifično se odnose na ChatGPT, Claude, Gemini… ili druge generativne AI alate,” kaže Rob Shavell, suosnivač i izvršni direktor tvrtke. Konkretno, 55% ovih zabrinutosti odnosi se na ChatGPT, 20% na Gemini, 15% na Claude, a 10% na druge AI alate, dodaje Shavell.
Shavell navodi da se pritužbe korisnika o osobnim informacijama koje otkrivaju LLM-ovi obično javljaju u dva oblika: ili “korisnik pita chatbota nešto bezopasno o sebi i dobiva točne kućne adrese, telefonske brojeve, imena članova obitelji ili podatke o poslodavcima.” Alternativno, korisnik može naići i prijaviti izlaganje osobnih podataka nekog drugog, kada “chatbot generira uvjerljive, ali netočne kontakt informacije.”



