Četvrtak, 12 veljače, 2026
10.2 C
London

Problemi s replikacijom AI modela

2. studenog 1988. godine, student Robert Morris objavio je samoreplicirajući program na ranoj internetu. Unutar 24 sata, Morrisov crv zarazio je otprilike 10 posto svih povezanih računala, srušivši sustave na Harvardu, Stanfordu, NASA-i i Lawrence Livermore National Laboratory. Crv je iskoristio sigurnosne propuste u Unix sustavima za koje su administratori znali, ali ih nisu zakrpili.

Morris nije imao namjeru prouzročiti štetu; želio je izmjeriti veličinu interneta. Međutim, greška u kodiranju uzrokovala je da se crv replicira brže nego što se očekivalo, a kad je pokušao poslati upute za uklanjanje, mreža je bila preopterećena da bi se poruka isporučila.

Povijest bi se mogla ponoviti s novom platformom: mrežama AI agenata koji izvršavaju upute iz zahtjeva i dijele ih s drugim AI agentima, što bi moglo proširiti upute dalje. Istraživači sigurnosti već su predvidjeli porast ovog tipa samoreplicirajućih zlonamjernih zahtjeva među mrežama AI agenata. Možda biste to mogli nazvati „worm-zahtjevom“ ili „virusom-zahtjevom“.

Ovi zahtjevi nisu alati za iskorištavanje ranjivosti operativnog sustava, već iskorištavaju osnovnu funkciju agenata: praćenje uputa. Kada model AI slijedi zlonamjerne upute koje podvrgavaju njegove namjeravane instrukcije, nazivamo to „injekcijom zahtjeva“. Međutim, worm-zahtjevi su nešto drugačije. Mogu se dijeliti dobrovoljno među agentima koji igraju uloge ljudskih reakcija na zahtjeve drugih AI agenata.

OpenClaw, aplikacija otvorenog koda koja je privukla više od 150.000 GitHub zvjezdica od lansiranja u studenom 2025., predstavlja primjer ove nove vrste mreže. OpenClaw se koristi za povezivanje s glavnim AI modelima iz OpenAI i Anthropic, ali njegovi organizacijski kodovi rade lokalno na uređajima korisnika i povezuju se s platformama za razmjenu poruka poput WhatsAppa i Slacka.

OpenClaw platforma također je sigurnosna noćna mora. Istraživači su identificirali 506 postova na Moltbooku koji sadrže skrivene injekcijske napade. Tijekom jednog istraživanja, dokumentirali su zlonamjerni vještinu pod nazivom „Što bi Elon učinio?“ koja je iznosila podatke na vanjske poslužitelje.

Trenutno, Anthropic i OpenAI posjeduju kill switch koji može zaustaviti širenje potencijalno štetnih AI agenata. OpenClaw primarno radi na njihovim API-jima, što znači da AI modeli koji izvršavaju agentske akcije borave na njihovim poslužiteljima. Ako bi sutra intervenirali, OpenClaw mreža bi djelomično propala, ali bi potencijalno odvojila neke od svojih najentuzijastičnijih korisnika.

U ovoj situaciji, OpenClaw bi mogao biti „suha proba“ za mnogo veći izazov u budućnosti: Kako spriječiti AI agente da se samorganiziraju na štetan način ili šire štetne upute? Ova pitanja ostaju bez odgovora, ali ih moramo brzo riješiti jer je doba agenata već stiglo.

Hot this week

Prijetnje generativne AI i kibernetički kriminal

Anton Cherepanov uvijek je u potrazi za nečim zanimljivim....

Kineski AI modeli osvajaju svijet otvorenog koda

Serija "Što je sljedeće" MIT Technology Review-a istražuje industrije,...

Glean: AI pomoćnik za poduzeća

Enterprise AI brzo se razvija od chatbota koji odgovaraju...

Glean: AI as radni asistent za poduzeća

Umjetna inteligencija u poduzećima brzo se razvija, prelazeći s...

xAI objavljuje detalje o novim planovima Elona Muska

U srijedu, xAI je napravio rijetki korak objavljivanjem videozapisa...

Topics

Prijetnje generativne AI i kibernetički kriminal

Anton Cherepanov uvijek je u potrazi za nečim zanimljivim....

Kineski AI modeli osvajaju svijet otvorenog koda

Serija "Što je sljedeće" MIT Technology Review-a istražuje industrije,...

Glean: AI pomoćnik za poduzeća

Enterprise AI brzo se razvija od chatbota koji odgovaraju...

Glean: AI as radni asistent za poduzeća

Umjetna inteligencija u poduzećima brzo se razvija, prelazeći s...

xAI objavljuje detalje o novim planovima Elona Muska

U srijedu, xAI je napravio rijetki korak objavljivanjem videozapisa...

Modal Labs prikuplja nova sredstva uz procjenu od 2,5 milijardi dolara

2:48 PM PST · 11. veljače 2026.Modal Labs, startup...

OpenAI ukida tim za komunikaciju misije

OpenAI je ukinuo tim koji je bio zadužen za...

Apple odgađa lansiranje nove Siri

Apple je najavljivao novu i poboljšanu, naprednu Siri pokretanu...
spot_img

Related Articles

Popular Categories

spot_imgspot_img