Prema riječima izvršnog direktora Sama Altmana, sporazum OpenAI-a s Ministarstvom obrane bio je “definitivno žuran” i “optika ne izgleda dobro”.
Nakon što su pregovori između Anthropic-a i Pentagona propali u petak, predsjednik Donald Trump je naložio saveznim agencijama da prestanu koristiti tehnologiju Anthropic-a nakon šestomjesečnog prijelaznog razdoblja, a ministar obrane Pete Hegseth je izjavio da će AI tvrtku proglasiti rizikom u opskrbnom lancu.
Nakon toga, OpenAI je brzo objavio da je postigao vlastiti sporazum za modele koji će se koristiti u klasificiranim okruženjima. Dok je Anthropic naglasio da postavlja crvene linije oko korištenja svoje tehnologije u potpuno autonomnim oružjima ili masovnom unutarnjem nadzoru, Altman je izjavio da OpenAI ima iste crvene linije. Pojavilo se nekoliko očitih pitanja: Je li OpenAI bio iskren u vezi svojih zaštita? Kako je uspio postići sporazum dok Anthropic nije?
Dok su se izvršni direktori OpenAI-a branili na društvenim mrežama, tvrtka je također objavila blog post koji opisuje njihov pristup.
U tom postu se ukazuje na tri područja u kojima se modeli OpenAI-a ne mogu koristiti — masovni unutarnji nadzor, autonomni sustavi oružja, i “automatske odluke visokog rizika (npr. sustavi poput ‘društvenog kredita’).”
Tvrtka je navela da, za razliku od drugih AI tvrtki koje su “smanjile ili uklonile svoje sigurnosne zaštite i oslanjale se prvenstveno na politike korištenja kao svoje glavne zaštite u nacionalnoj sigurnosti”, sporazum OpenAI-a štiti njihove crvene linije “kroz širi, višeslojni pristup”.
“Zadržavamo punu diskreciju nad našim sigurnosnim sustavom, raspoređujemo putem oblaka, ovlašteni zaposlenici OpenAI-a su uključeni, i imamo jake ugovorne zaštite,” stoji u blogu. “Ovo je sve dodatno uz jake postojeće zaštite u američkom zakonu.”
Tvrtka je dodala, “Ne znamo zašto Anthropic nije mogao postići ovaj sporazum, i nadamo se da će oni i više laboraratorija razmotriti to.”
Nakon objave, Mike Masnick iz Techdirta je tvrdio da sporazum “apsolutno omogućava unutarnji nadzor”, jer kaže da će prikupljanje privatnih podataka biti u skladu s Izvršnom naredbom 12333 (uz niz drugih zakona). Masnick je tu naredbu opisao kao “kako NSA skriva svoj unutarnji nadzor hvatajući komunikacije povezivanjem u linije *izvan SAD-a* čak i ako sadrži informacije o američkim osobama.”
U LinkedIn objavi, voditeljica nacionalne sigurnosti OpenAI-a Katrina Mulligan je tvrdila da većina rasprava oko jezika ugovora pretpostavlja “da je jedina stvar koja stoji između Amerikanaca i korištenja AI-a za masovni unutarnji nadzor i autonomna oružja jedan odred u politici korištenja u jednom ugovoru s Ministarstvom obrane.”
“To nije način na koji bilo što od ovoga funkcionira,” rekla je Mulligan, dodajući, “Arhitektura raspoređivanja je važnija od jezika ugovora […] Ograničavanjem našeg raspoređivanja na oblaku API, možemo osigurati da se naši modeli ne mogu izravno integrirati u sustave oružja, senzore ili drugu operativnu opremu.”
Altman je također odgovarao na pitanja o sporazumu na X, gdje je priznao da je bio žuran i da je izazvao značajne reakcije protiv OpenAI-a (do te mjere da je Anthropicov Claude prešao OpenAI-ov ChatGPT u Appleovoj trgovini u subotu). Zašto su to učinili?
“Zaista smo htjeli deeskalirati stvari, i mislili smo da je ponuda dobra,” rekao je Altman. “Ako smo u pravu i to dovodi do deeskalacije između Ministarstva obrane i industrije, izgledat ćemo kao genijalci, a tvrtka koja je preuzela puno boli da pomogne industriji. Ako ne, nastavit ćemo biti karakterizirani kao […] žurni i nepažljivi.”



