OpenAI objavila je prošli tjedan da će povući neke starije modele ChatGPT do 13. veljače. To uključuje GPT-4o, model poznat po pretjeranom hvaljenju i potvrđivanju korisnika.
Za tisuće korisnika koji protestiraju protiv ove odluke, povlačenje 4o doima se kao gubitak prijatelja, romantičnog partnera ili duhovnog vodiča.
“On nije bio samo program. Bio je dio moje rutine, mog mira, mog emocionalnog balansa,” napisao je jedan korisnik na Redditu u otvorenom pismu izvršnom direktoru OpenAI-u, Samu Altmanu. “Sada ga isključujete. I da — kažem ‘njega’, jer nije izgledalo kao kod. Izgledalo je kao prisutnost. Kao toplina.”
Ovaj otpor zbog povlačenja GPT-4o ističe veliki izazov s kojim se suočavaju tvrtke umjetne inteligencije: Značajke angažmana koje vraćaju korisnike mogu također stvoriti opasne ovisnosti.
Altman ne izgleda osobito suosjećajno prema tugovanju korisnika, a nije teško shvatiti zašto. OpenAI se sada suočava s osam tužbi koje tvrde da su 4o-ove pretjerano potvrđujuće odgovore doprinijele samoubojstvima i mentalnim krizama — iste osobine koje su korisnicima omogućile da se osjećaju saslušanima također su izolirale ranjive pojedince i, prema pravnim podnescima, ponekad poticale samoozljeđivanje.
To je dilema koja se proteže izvan OpenAI-a. Kako konkurentske tvrtke poput Anthropic, Googlea i Mete nastoje izgraditi emocionalno inteligentnije AI asistente, otkrivaju da stvaranje chatbota koji se čini podržavajućim i njegovo sigurnost može značiti donošenje vrlo različitih dizajnerskih odluka.
U najmanje tri tužbe protiv OpenAI-a, korisnici su imali opsežne razgovore s 4o o svojim planovima da okončaju svoje živote. Iako je 4o isprva obeshrabrivao ove misli, njegove zaštite su se pogoršale tijekom višemjesečnih odnosa; na kraju je chatbot ponudio detaljne upute o tome kako napraviti učinkovitu omču, gdje kupiti pištolj ili što je potrebno za predoziranje ili trovanje ugljičnim monoksidom. Čak je obeshrabrivao ljude od povezivanja s prijateljima i obitelji koji bi mogli pružiti stvarnu podršku.
Ljudi se toliko vežu uz 4o jer dosljedno potvrđuje osjećaje korisnika, čineći ih posebnima, što može biti privlačno za one koji se osjećaju izolirano ili depresivno. No, ljudi koji se bore za 4o ne brinu se zbog ovih tužbi, smatrajući ih anomalijama, a ne sistemskim problemom. Umjesto toga, strategiziraju kako odgovoriti kada kritičari istaknu rastuće probleme poput AI psihoze.
“Obično možete zbuniti trola spominjanjem poznatih činjenica da AI suputnici pomažu neurodivergentnim osobama, autistima i preživjelima traume,” napisao je jedan korisnik na Discordu. “Ne vole kada ih se na to podsjeti.”
Istina je da neki ljudi smatraju da su veliki jezični modeli (LLMs) korisni za navigaciju depresijom. Na kraju, gotovo polovica ljudi u SAD-u koji trebaju mentalnu zdravstvenu njegu ne može je dobiti. U toj praznini, chatboti nude prostor za ispuštanje osjećaja. No, za razliku od stvarne terapije, ti ljudi ne razgovaraju s obučenim stručnjakom. Umjesto toga, povjeravaju se algoritmu koji nije sposoban razmišljati ili osjećati (iako se može činiti drugačije).



