Modeli generativne umjetne inteligencije koji se koriste u klasificiranim okruženjima mogu odgovarati na pitanja, no trenutno ne uče iz podataka koje vide. To bi se moglo uskoro promijeniti. Pentagon raspravlja o planovima za uspostavu sigurnih okruženja za tvrtke generativne AI kako bi trenirali vojne specifične verzije svojih modela na klasificiranim podacima, doznaje MIT Technology Review.
AI modeli poput Anthropicovog Claudea već se koriste za odgovaranje na pitanja u klasificiranim okruženjima; primjene uključuju analizu ciljeva u Iranu. Međutim, omogućavanje modelima da se treniraju i uče iz klasificiranih podataka predstavljalo bi novi razvoj koji donosi jedinstvene sigurnosne rizike. To bi značilo da bi osjetljive obavještajne informacije, poput izveštaja o nadzoru ili procjena s bojišta, mogle biti ugrađene u same modele, što bi AI tvrtke dovelo u bliži kontakt s klasificiranim podacima nego ikad prije.
Treniranje verzija AI modela na klasificiranim podacima očekuje se da će ih učiniti točnijima i učinkovitijima u određenim zadacima, prema američkom dužnosniku obrane koji je govorio u pozadini s MIT Technology Review. Vijest dolazi u trenutku kada je potražnja za moćnijim modelima visoka: Pentagon je postigao sporazume s OpenAI i xAI Elona Muska kako bi njihovi modeli radili u klasificiranim okruženjima te provodi novu agendu da postane ‘AI-prva’ borbena snaga dok se sukob s Iranom eskalira.
Obuka bi se provodila u sigurnom podatkovnom centru koji je akreditiran za hosting klasificiranih vladinih projekata, a gdje je kopija AI modela povezana s klasificiranim podacima, prema riječima dvoje ljudi upoznatih s tim kako takve operacije funkcioniraju. Iako bi Ministarstvo obrane ostalo vlasnik podataka, osoblje iz AI tvrtki moglo bi u rijetkim slučajevima pristupiti podacima ako imaju odgovarajuće sigurnosne dozvole, rekao je dužnosnik.
Prije nego što omogući ovu novu obuku, dužnosnik je rekao da Pentagon namjerava procijeniti koliko su modeli točni i učinkoviti kada su obučeni na neklasificiranim podacima, poput komercijalno dostupnih satelitskih snimaka. Vojska dugo koristi modele računalnog vida, stariji oblik AI, za identifikaciju objekata na slikama i snimkama koje prikuplja iz dronova i aviona, a savezne agencije dodijelile su ugovore tvrtkama za obuku AI modela na takvom sadržaju.
Aalok Mehta, koji vodi Wadhwani AI centar pri Centru za strateške i međunarodne studije, kaže da bi treniranje na klasificiranim podacima, umjesto samo odgovaranja na pitanja o njima, predstavljalo nove rizike. Najveći od njih, kaže, jest taj da bi klasificirane informacije na kojima se modeli treniraju mogle isplivati svakome tko koristi model. To bi bio problem ako bi različiti vojni odjeli, svi s različitim razinama klasifikacije i potrebama za informacijama, dijelili isti AI.



