U svibnju 2025., Google je na svom I/O događaju predstavio što naziva “novom klasom agencijskih iskustava”, što se čini kao prekretnica. Tvrtka je, primjerice, pokazala digitalnog asistenta koji ne samo da odgovara na pitanja, već pomaže i u popravku bicikla pronalazeći odgovarajući priručnik, locirajući YouTube tutorial i čak zovući lokalnu trgovinu kako bi pitala o dijelu, sve uz minimalnu ljudsku intervenciju. Takve mogućnosti uskoro bi se mogle proširiti daleko izvan Googleovog ekosustava. Tvrtka je uvela otvoreni standard pod nazivom Agent-to-Agent (A2A), koji ima za cilj omogućiti agentima iz različitih tvrtki da razgovaraju jedni s drugima i surađuju. Vizija je uzbudljiva: inteligentni softverski agenti koji djeluju kao digitalni suradnici, rezervirajući vam letove, prebacujući sastanke, podnoseći troškove i komunicirajući jedni s drugima u pozadini kako bi obavili zadatke. Međutim, ako ne budemo pažljivi, mogli bismo sabotirati cijelu ideju prije nego što ona uopće donese stvarne koristi.
Poput mnogih tehnoloških trendova, postoji rizik da uzbuđenje nadmaši stvarnost. Kada očekivanja postanu nerealna, povratna reakcija nije daleko. Za početak, termin “agent” se trenutno koristi za sve, od jednostavnih skripti do sofisticiranih AI radnih tokova. Ne postoji zajednička definicija, što ostavlja prostora tvrtkama da osnovnu automatizaciju predstavljaju kao nešto naprednije. Ova vrsta “agentwashinga” ne samo da zbunjuje kupce, već dovodi i do razočaranja. Ne trebamo nužno stroge standarde, ali trebamo jasnija očekivanja o tome što ovi sustavi trebaju raditi, koliko autonomno djeluju i koliko pouzdano funkcioniraju.
Pouzdanje je sljedeći veliki izazov. Većina današnjih agenata pokreće velike jezične modele (LLM), koji generiraju vjerojatnosne odgovore. Ovi sustavi su moćni, ali također i nepredvidivi. Mogu izmišljati stvari, skrenuti s puta ili propasti na suptilan način—posebno kada se od njih traži da završe višestepene zadatke, koristeći vanjske alate i povezujući LLM odgovore. Nedavni primjer: korisnicima Cursor-a, popularnog AI alata za programiranje, rečeno je od strane automatiziranog podržavajućeg agenta da ne mogu koristiti softver na više od jednog uređaja. Došlo je do širokih pritužbi i izvještaja o korisnicima koji su otkazivali svoje pretplate, ali se ispostavilo da politika ne postoji; AI ju je izmislio.
U poslovnim okruženjima, ovakva greška može stvoriti ogromnu štetu. Moramo prestati tretirati LLM-ove kao samostalne proizvode i početi graditi cjelovite sustave oko njih—sustave koji uzimaju u obzir nesigurnost, prate rezultate, upravljaju troškovima i uvode zaštitne mjere za sigurnost i točnost. Neki su poduzeća, uključujući AI21, već krenula tim putem, obavijajući jezične modele u promišljene, strukturirane arhitekture. Naša najnovija ponuda, Maestro, dizajnirana je za pouzdanost u poduzećima, kombinirajući LLM-ove s podacima tvrtke, javnim informacijama i drugim alatima kako bi osigurala pouzdane rezultate.



