Kada je Jennifer 2023. godine dobila posao istraživačice za neprofitnu organizaciju, provjerila je svoj novi profesionalni portret kroz program za prepoznavanje lica. Htjela je vidjeti hoće li tehnologija pronaći pornografske videe koje je snimila prije više od 10 godina, kada je bila u ranim dvadesetima. Program je doista vratio neke od tih sadržaja, ali i nešto alarmantno što nikada prije nije vidjela: jedan od njenih starih videa, ali s nečijim drugim licem na njenom tijelu. ‘Isprva sam mislila da je to samo neka druga osoba’, kaže Jennifer, čije ime je promijenjeno radi zaštite privatnosti. No, zatim je prepoznala izrazito upadnu pozadinu iz videa koji je snimila oko 2013. godine i shvatila: ‘Netko me iskoristio u dubokom lažnom sadržaju.’ Uznemirujuće, tehnologija prepoznavanja lica je identificirala nju jer je slika još uvijek sadržavala neke od Jenniferinih karakteristika—njene jagodične kosti, obrve, oblik brade. ‘Kao da nosim tuđe lice kao masku’, kaže.
Razgovori o seksualiziranim dubokim lažnim sadržajima, koji spadaju pod kategoriju neovisnih intimnih slika, često se fokusiraju na ljude čija su lica uključena, a koji rade nešto što zapravo nisu učinili, ili na tijela koja nisu njihova. Često su to poznate ličnosti, no posljednjih godina sve više ljudi (uglavnom žena, a ponekad i mladih) postaje meta, što izaziva uzbunu, strah i čak zakonodavne mjere. No, ove rasprave obično se ne bave tijelima koja su vezana za lica u tim slikama i videima. Jennifer, koja sada ima 37 godina i radi kao psihoterapeutkinja u New Yorku, kaže: ‘Nikada se ne postavlja pitanje čije je to tijelo?’
Godinama je odgovor obično bio da su to odrasli kreatori sadržaja. Duboki lažnjak zapravo je dobio svoje ime u studenom 2017. kada je netko s Reddit korisničkim imenom ‘deepfakes’ postavio videe s licima zvijezda poput Scarlett Johansson i Gal Gadot zalijepljenima na tijela porno glumaca. Neovlaštena upotreba njihovih tijela ‘dogodi se cijelo vrijeme’ u dubokim lažnim sadržajima, kaže Corey Silverstein, odvjetnik specijaliziran za industriju odraslih. No, u posljednje vrijeme, kako se generativna umjetna inteligencija poboljšala i kako su se pojavile aplikacije za ‘nudificiranje’, problem je postao daleko složeniji—and, po svemu sudeći, opasniji za budućnost kreatora sadržaja.



