Anton Cherepanov uvijek je u potrazi za nečim zanimljivim. Krajem kolovoza prošle godine, primijetio je datoteku koja je bila prenesena na VirusTotal, platformu koju istraživači kibernetske sigurnosti koriste za analizu potencijalnih virusa i drugog zlonamjernog softvera. Na prvi pogled, činilo se da je datoteka bezopasna, no pokrenula je Cherepanovljeve mjere za otkrivanje zlonamjernih programa. Tijekom sljedećih nekoliko sati, on i njegov kolega Peter Strýček pregledali su uzorak i shvatili da nikada nisu naišli na nešto slično. Datoteka je sadržavala ransomware, soj zlonamjernog softvera koji šifrira datoteke na žrtvinom sustavu, čineći ih neupotrebljivima dok se ne plati otkup. Ono što je ovu verziju izdvajalo je to što je koristila velike jezične modele (LLM-ove) u svakoj fazi napada. Kada se instalirao, mogao je koristiti LLM za generiranje prilagođenog koda u stvarnom vremenu, brzo mapirati računalni sustav kako bi identificirao osjetljive podatke za kopiranje ili šifriranje i pisati personalizirane otkupnine temeljem sadržaja datoteka. Softver je mogao to raditi autonomno, bez ljudske intervencije, a svaki put kad je pokrenut, djelovao bi drugačije, što ga je činilo teže otkrivenim.
Cherepanov i Strýček bili su uvjereni da je njihovo otkriće, koje su nazvali PromptLock, označilo prekretnicu u generativnoj AI, pokazujući kako se tehnologija može iskoristiti za stvaranje izrazito fleksibilnih napada zlonamjernih softvera. Objavili su blog post u kojem su objavili da su otkrili prvi primjer ransomware-a pokretanog AI-jem, što je brzo postalo predmet široke globalne medijske pažnje. No, prijetnja nije bila tako dramatična kako se isprva činilo. Dan nakon objave bloga, tim istraživača s New York Universityja preuzeo je odgovornost, objašnjavajući da malware zapravo nije bio potpuni napad, već istraživački projekt koji je imao za cilj dokazati da je moguće automatizirati svaki korak kampanje ransomware-a.
PromptLock se možda pokazao kao akademski projekt, no pravi kriminalci koriste najnovije alate AI-a. Baš kao što programeri koriste umjetnu inteligenciju za pomoć u pisanju koda i provjeravanju grešaka, hakeri koriste ove alate kako bi smanjili vrijeme i trud potreban za orkestriranje napada, što smanjuje prepreke za manje iskusne napadače. Vjerojatnost da će kibernetički napadi postati učestaliji i učinkovitiji nije daleka mogućnost, već “očita stvarnost”, kaže Lorenzo Cavallaro, profesor računalnih znanosti na University College London.
Neki u Silicijskoj dolini upozoravaju da je AI na rubu sposobnosti provođenja potpuno automatiziranih napada. No, većina istraživača sigurnosti smatra da je ta tvrdnja pretjerana. Umjesto toga, stručnjaci tvrde da bismo trebali obratiti veću pažnju na neposrednije rizike koje predstavlja AI, koji već ubrzava i povećava broj prevara. Kriminalci sve više iskorištavaju najnovije tehnologije dubokih laži za impersonaciju ljudi i prevare žrtava kako bi im oduzeli velike svote novca.


