Sposobnost pamćenja korisnika i njihovih preferencija postaje sve važnija za AI chatbotove i agente. Ove godine, Google je predstavio Personal Intelligence, novi način interakcije s Gemini chatbotom koji koristi povijest Gmaila, fotografija, pretraživanja i YouTubea kako bi ga učinio ‘osobnijim, proaktivnijim i moćnijim’. Ovakvi potezi slični su onima koje su poduzele tvrtke poput OpenAI, Anthropic i Meta, a cilj im je dodati nove načine na koje njihovi AI proizvodi pamte i koriste osobne podatke. Iako ove funkcije imaju potencijalne prednosti, potrebno je dodatno se pripremiti za nove rizike koje bi mogle donijeti ove složene tehnologije.
Personalizirani, interaktivni AI sustavi osmišljeni su da djeluju u naše ime, održavaju kontekst kroz razgovore i poboljšaju našu sposobnost obavljanja različitih zadataka, od rezervacije putovanja do podnošenja poreznih prijava. Ovi sustavi oslanjaju se na sposobnost pohrane i povratka sve intimnijih detalja o korisnicima. Međutim, to dugoročno otvara vrata zabrinjavajućim ranjivostima privatnosti, koje su se pojavile još od vremena kada je ‘veliki podaci’ prvi put nagovijestio moć prepoznavanja i djelovanja na obrasce korisnika.
Danas komuniciramo s ovim sustavima putem razgovornih sučelja, često prelazeći iz jednog konteksta u drugi. Možda ćete jednom AI agentu zatražiti da napiše e-mail vašem šefu, pruži medicinski savjet, napravi proračun za božićne poklone i ponudi rješenja za međuljudske sukobe. Većina AI agenata kombinuje sve podatke o vama—koji su nekada bili odvojeni prema kontekstu, svrsi ili dozvolama—u jedinstvene, nestrukturirane repozitorije. Kada AI agent poveže s vanjskim aplikacijama ili drugim agentima kako bi izvršio zadatak, podaci u njegovoj memoriji mogu se sliti u zajedničke bazene. Ova tehnička stvarnost stvara potencijal za bez presedana kršenja privatnosti koja izlažu ne samo izolirane podatke, već i cijeli mozaik života ljudi.
Kada su svi podaci u istom repozitoriju, skloni su prelasku konteksta na načine koji su duboko nepoželjni. Lagan razgovor o prehrambenim preferencijama za izradu popisa za kupovinu mogao bi kasnije utjecati na opcije zdravstvenog osiguranja ili pretraživanje restorana s pristupačnim ulazima moglo bi dospjeti u pregovore o plaći—sve bez svjesti korisnika. Ova informacijska juha memorije ne samo da predstavlja problem privatnosti, već također otežava razumijevanje ponašanja AI sustava—i upravljanje njima. Što mogu učiniti programeri kako bi riješili ovaj problem?
Prvo, sustavi memorije trebaju strukturu koja omogućava kontrolu nad svrhom za koju se sjećanja mogu pristupiti i koristiti. Rani pokušaji su već u tijeku: Anthropicov Claude stvara odvojena memorijska područja za različite ‘projekte’, a OpenAI navodi da je informacija dijeljena putem ChatGPT Health razdvojena od drugih razgovora. Iako su to korisni počeci, alati su još uvijek daleko od savršenih: Minimalno, sustavi moraju moći razlikovati specifična sjećanja (korisnik voli čokoladu i pitao je o GLP-1), povezana sjećanja (korisnik ima dijabetes i stoga izbjegava čokoladu) i kategorije sjećanja (kao što su profesionalna i zdravstvena). Nadalje, sustavi trebaju omogućiti ograničenja korištenja određenih tipova sjećanja i pouzdano smjestiti jasno definirane granice—osobito oko sjećanja koja se odnose na osjetljive teme poput medicinskih stanja ili zaštićenih karakteristika, koje će vjerojatno podlijegati strožim pravilima.



