Nova tehnika pod nazivom LightShed otežat će umjetnicima korištenje postojećih zaštitnih alata kako bi spriječili da njihovo djelo bude korišteno za obuku AI-a. To je sljedeći korak u igri mačke i miša koja traje već godinama između umjetnika i zagovornika umjetničke inteligencije. Generativni AI modeli koji stvaraju slike trebaju biti obučeni na raznolikom vizualnom materijalu, a podaci koji se koriste za ovu obuku navodno uključuju autorska umjetnička djela bez dozvole. To zabrinjava umjetnike koji strahuju da će modeli naučiti njihov stil, oponašati njihovo djelo i ostaviti ih bez posla.
Važno je napomenuti da istraživači iza LightShed-a ne pokušavaju ukrasti umjetnička djela. Oni samo ne žele da ljudi imaju lažni osjećaj sigurnosti. „Nećete biti sigurni imaju li tvrtke metode za brisanje ovih otrova, ali će vam to nikada ne reći“, kaže Hanna Foerster, doktorandica na Sveučilištu u Cambridgeu i glavna autorica rada o ovoj tehnici. A ako i imaju, možda će biti prekasno za rješavanje problema.
AI modeli djeluju dijelom stvarajući granice između onoga što percipiraju kao različite kategorije slika. Alati kao što su Glaze i Nightshade mijenjaju dovoljno piksela kako bi gurnuli određeno umjetničko djelo preko te granice bez utjecaja na kvalitetu slike, uzrokujući da ga model vidi kao nešto što nije. Ove gotovo neprimjetne promjene nazivaju se perturbacijama i ometaju sposobnost AI modela da razumije umjetničko djelo.
Glaze uzrokuje da modeli pogrešno razumiju stil (npr. tumačeći fotorealističnu sliku kao crtani film), dok Nightshade čini da model pogrešno vidi subjekt (npr. tumačeći mačku u crtežu kao psa). Glaze se koristi za obranu individualnog stila umjetnika, dok se Nightshade koristi za napad na AI modele koji pretražuju internet u potrazi za umjetnošću.
Foerster je radila s timom istraživača s Tehničkog sveučilišta u Darmstadtu i Sveučilišta Texas u San Antoniju na razvoju LightShed-a, koji uči kako vidjeti gdje alati poput Glaze i Nightshade ispuštaju ovu vrstu digitalnog otrova na umjetnost kako bi je učinkovito očistili. Grupa će predstaviti svoja otkrića na Usenix Security Symposiumu, vodećoj globalnoj konferenciji o kibernetičkoj sigurnosti, u kolovozu.
Istraživači su obučavali LightShed hraneći ga dijelovima umjetnosti s i bez Nightshade-a, Glaze-a i drugih sličnih programa. Foerster opisuje proces kao podučavanje LightShed-a da rekonstruiše „samo otrov na otrovanim slikama“. Identifikacija praga koliko otrova će zapravo zbuniti AI olakšava „pranje“ samo otrova.
LightShed je nevjerojatno učinkovit u tome. Dok su drugi istraživači pronašli jednostavne načine za podvođenje trovanja, LightShed se čini prilagodljivijim. Može čak primijeniti ono što je naučio iz jednog alata protiv AI, recimo, Nightshade-a, na druge poput Mist-a ili MetaCloak-a bez da ih je prethodno vidio. Dok ima problema s malim dozama otrova, one manje vjerojatno ubijaju sposobnosti AI modela da razumije temeljnu umjetnost, što je pobjeda za AI ili gubitak za umjetnike koji koriste ove alate.
Oko 7,5 milijuna ljudi, mnogi od njih umjetnici s malim i srednjim pratiteljima i manje resursa, preuzeli su Glaze za zaštitu svoje umjetnosti. Oni koji koriste alate poput Glaze-a vide to kao važnu tehničku obranu, posebno kada je stanje regulative oko AI obuke i autorskih prava još uvijek nejasno. Autori LightShed-a vide svoj rad kao upozorenje da alati poput Glaze-a nisu trajna rješenja. „Možda će trebati još nekoliko pokušaja kako bismo došli do boljih ideja za zaštitu“, kaže Foerster.



