Proteklih dva tjedna obilježen je sukobom između izvršnog direktora Anthropic-a, Daria Amodei-a, i ministra obrane Petea Hegsetha, dok se bore oko vojne upotrebe umjetne inteligencije.
Anthropic se protivi korištenju svojih AI modela za masovno nadgledanje Amerikanaca ili za potpuno autonomno oružje koje provodi napade bez ljudske kontrole. S druge strane, ministar Hegseth smatra da Ministarstvo obrane ne bi trebalo biti ograničeno pravilima dobavljača, tvrdeći da bi svaka “zakonita upotreba” tehnologije trebala biti dopuštena.
U četvrtak, Amodei je javno signalizirao da Anthropic ne popušta, unatoč prijetnjama da bi njegova tvrtka mogla biti označena kao rizik u opskrbnom lancu. No, s brzim razvojem vijesti, važno je ponovo razmotriti što je zapravo na kocki u ovom sukobu.
U svojoj srži, ovaj sukob se vrti oko toga tko kontrolira moćne AI sustave — tvrtke koje ih grade ili vlada koja ih želi koristiti.
Što brine Anthropic?
Kao što smo spomenuli, Anthropic ne želi da se njihovi AI modeli koriste za masovno nadgledanje Amerikanaca ili za autonomno oružje bez ljudske intervencije u odlukama o ciljanju i ispaljivanju. Tradicionalni izvođači obrambenih radova obično imaju malo utjecaja na to kako će se njihovi proizvodi koristiti, no Anthropic tvrdi da tehnologija AI nosi jedinstvene rizike i zahtijeva jedinstvene zaštite. Iz perspektive tvrtke, pitanje je kako održati te zaštite kada se tehnologija koristi u vojsci.
Američka vojska već se oslanja na visoko automatizirane sustave, od kojih su neki smrtonosni. Odluku o upotrebi smrtonosne sile povijesno su donosili ljudi, ali postoji malo pravnih ograničenja na vojnu upotrebu autonomnog oružja. Ministarstvo obrane ne zabranjuje potpuno autonomne oružane sustave. Prema smjernicama iz 2023., AI sustavi mogu odabrati i angažirati ciljeve bez ljudske intervencije, pod uvjetom da ispunjavaju određene standarde i prođu reviziju od strane viših obrambenih dužnosnika.
To je upravo ono što čini Anthropic nervoznim. Vojna tehnologija je po prirodi tajnovita, pa ako bi američka vojska poduzela korake ka automatizaciji odluka o smrtonosnim akcijama, možda ne bismo saznali o tome sve dok ne postane operativna. A ako bi koristila modele Anthropic-a, to bi se moglo smatrati “zakonitom upotrebom.”
Stanovište Anthropic-a nije to da takve upotrebe trebaju biti trajno isključene. Njihovi modeli još nisu dovoljno sposobni da sigurno podrže takve primjene. Zamislite autonomni sustav koji pogrešno identificira cilj, eskalira sukob bez ljudske autorizacije ili donosi brzu smrtonosnu odluku koju nitko ne može poništiti. Stavite manje sposobnu AI na čelo oružja i dobit ćete vrlo brzu, vrlo samouvjerenu mašinu koja loše donosi odluke u situacijama visokog rizika.



