Priča je izvorno objavljena u The Algorithm, našem tjednom biltenu o umjetnoj inteligenciji. Da biste primali ovakve priče u svoj inbox, prijavite se ovdje. Prošlo je nešto više od dva tjedna otkako je OpenAI postigao kontroverzni dogovor koji omogućava Pentagonu korištenje svoje umjetne inteligencije u tajnim okruženjima. I dalje postoje hitna pitanja o tome što točno taj dogovor omogućava; Sam Altman je izjavio da vojni sektor ne može koristiti tehnologiju njegove tvrtke za izradu autonomnih oružja, ali dogovor zapravo zahtijeva da vojska slijedi vlastite (prilično permisivne) smjernice o takvim oružjima. Druga glavna tvrdnja OpenAI-a, da će dogovor spriječiti korištenje njihove tehnologije za domaće nadgledanje, također se čini sumnjivom.
Nejasno je koje su motivacije OpenAI-a. Nije to prva tehnološka tvrtka koja se okreće vojnim ugovorima koje je nekada obećala da neće prihvatiti, ali brzina ovog preokreta bila je značajna. Možda se radi samo o novcu; OpenAI troši mnogo na obuku umjetne inteligencije i traži nove izvore prihoda (uključujući oglase). Ili možda Altman zaista vjeruje u ideološki okvir koji često ističe: da liberalne demokracije (i njihove vojske) moraju imati pristup najmoćnijoj umjetnoj inteligenciji kako bi se natjecale s Kinom.
Više je važno pitanje što će se dogoditi sljedeće. OpenAI je odlučio da se osjeća ugodno djelovati u središtu sukoba, baš kada Sjedinjene Države pojačavaju udare protiv Irana (s većom ulogom umjetne inteligencije nego ikada prije). Dakle, gdje bi se točno tehnologija OpenAI-a mogla pojaviti u ovom sukobu? I koje će aplikacije njegovi kupci (i zaposlenici) tolerirati?
Iako je dogovor s Pentagonum na snazi, nejasno je kada će tehnologija OpenAI-a biti spremna za tajna okruženja, budući da se mora integrirati s drugim alatima koje vojska koristi. No, pritisak za brzu provedbu je veliki zbog kontroverze oko tehnologije koja se do sada koristila: nakon što je Anthropic odbio dopustiti korištenje svoje umjetne inteligencije za „bilo koju zakonitu upotrebu“, predsjednik Trump naredio je vojsci da prestane s njenim korištenjem, a Anthropic je proglašen rizikom za opskrbni lanac od strane Pentagona.
Ako sukob u Iranu bude još u tijeku kada OpenAI-ova tehnologija bude integrirana, čemu će se koristiti? Nedavna razgovor s jednim vojnikom sugerira da bi to moglo izgledati ovako: ljudski analitičar mogao bi unijeti popis potencijalnih meta u AI model i tražiti analizu informacija te prioritizaciju koje treba napasti prvo. Model bi mogao uzeti u obzir logističke informacije, poput lokacije određenih zrakoplova ili opskrbe.
Čovjek bi potom bio odgovoran za ručno provjeravanje tih izlaza. Ali to postavlja očito pitanje: Ako osoba stvarno dvostruko provjerava izlaze AI-a, kako to ubrzava procese odlučivanja o ciljanju i napadima? Godinama vojska koristi drugi AI sustav, nazvan Maven, koji može automatski analizirati snimke dronova kako bi identificirao moguće mete. Vjerojatno će OpenAI-ovi modeli, poput Anthropicovog Claudea, ponuditi razgovorni sučelje koje omogućuje korisnicima da traže tumačenja obavještajnih informacija i preporuke o tome koje mete napasti prve.



