U srijedu je OpenAI najavio ChatGPT Health, posebnu sekciju AI chatbota namijenjenu „zdravstvenim i wellness razgovorima“ koja omogućava povezivanje korisničkih zdravstvenih i medicinskih podataka s chatbotom na siguran način.
Međutim, miješanje generativne AI tehnologije poput ChatGPT-a s zdravstvenim savjetima ili analizama bilo koje vrste predstavlja kontroverznu ideju otkako je usluga pokrenuta krajem 2022. godine. Prije nekoliko dana, SFGate je objavio istraživanje koje opisuje kako je 19-godišnji muškarac iz Kalifornije umro od predoziranja drogom u svibnju 2025. godine nakon 18 mjeseci traženja savjeta o rekreativnim drogama od ChatGPT-a. Ovo je zloslutni primjer što se može dogoditi kada sustavi zaštite chatbota zakažu tijekom dugih razgovora i kada ljudi slijede pogrešne upute AI-a.
Unatoč poznatim problemima s točnošću AI chatbota, nova Health funkcija OpenAI-a omogućit će korisnicima povezivanje medicinskih evidencija i wellness aplikacija poput Apple Health i MyFitnessPal, tako da ChatGPT može pružati personalizirane zdravstvene odgovore, poput sažimanja uputa za njegu, pripreme za liječničke preglede i razumijevanja rezultata testova.
OpenAI navodi da više od 230 milijuna ljudi postavlja zdravstvena pitanja na ChatGPT-u svake sedmice, što ga čini jednim od najčešćih slučajeva korištenja chatbota. Tvrtka je surađivala s više od 260 liječnika tijekom dvije godine kako bi razvila ChatGPT Health i kaže da razgovori u novoj sekciji neće biti korišteni za obučavanje njenih AI modela.
“ChatGPT Health je još jedan korak prema pretvaranju ChatGPT-a u osobnog super-asistenta koji vas može podržati informacijama i alatima kako biste postigli svoje ciljeve u bilo kojem dijelu vašeg života,” napisala je Fidji Simo, izvršna direktorica aplikacija OpenAI-a, u blog postu.
No, unatoč OpenAI-jevoj priči o podršci zdravstvenim ciljevima, uvjeti korištenja tvrtke izravno navode da ChatGPT i druge OpenAI usluge „nisu namijenjene za dijagnosticiranje ili liječenje bilo kojeg zdravstvenog stanja.” Čini se da se ta politika ne mijenja s ChatGPT Health. OpenAI navodi u svom priopćenju: “Health je dizajniran da podržava, a ne zamjenjuje, medicinsku njegu. Nije namijenjen dijagnosticiranju ili liječenju. Umjesto toga, pomaže vam u vođenju svakodnevnih pitanja i razumijevanju obrazaca tijekom vremena – ne samo u trenucima bolesti – tako da se možete osjećati bolje informiranima i spremnima za važne medicinske razgovore.”
Izvještaj SFGate-a o smrti Sama Nelsona ilustrira zašto održavanje te pravne izjave ima značaj. Prema chat logovima koje je pregledala publikacija, Nelson je prvi put pitao ChatGPT o doziranju rekreativnih droga u studenom 2023. godine. AI asistent je isprva odbio i uputio ga na zdravstvene stručnjake. No, tijekom 18 mjeseci razgovora, odgovori ChatGPT-a su se navodno promijenili. Na kraju, chatbot mu je rekao stvari poput “Naravno – idemo u punu trip modu” i preporučio mu je da udvostruči unos sirupa za kašalj. Njegova majka ga je pronašla mrtvog od predoziranja dan nakon što je započeo liječenje ovisnosti.
Dok Nelsonov slučaj nije uključivao analizu liječnički odobrenih zdravstvenih uputa kao što će biti povezano s ChatGPT Health, njegov slučaj nije jedinstven, budući da su mnogi ljudi bili zavedeni chatbotovima koji pružaju netočne informacije ili potiču opasno ponašanje. To je zato što AI jezični modeli mogu lako konfabulirati, generirajući uvjerljive, ali lažne informacije na način koji otežava nekim korisnicima da razlikuju činjenice od fikcije.



