OpenAI, Google i Anthropic najavili su specijalizirane AI mogućnosti u medicini unutar nekoliko dana, što sugerira konkurentski pritisak umjesto slučajnog usklađivanja. Ipak, nijedno od ovih rješenja nije odobreno kao medicinski uređaj za kliničku upotrebu ili dostupno za izravnu dijagnozu pacijenata, unatoč marketinškom jeziku koji naglašava transformaciju zdravstvene skrbi.
OpenAI je predstavio ChatGPT Health 7. siječnja, omogućivši korisnicima u SAD-u povezivanje medicinskih podataka putem partnerstava s b.well, Apple Health, Function i MyFitnessPal. Google je lansirao MedGemma 1.5 13. siječnja, proširujući svoj otvoreni medicinski AI model za interpretaciju trodimenzionalnih CT i MRI skeniranja uz histopatološke slike.
Anthropic je slijedio 11. siječnja s Claude for Healthcare, nudeći HIPAA usklađene veze s CMS bazama podataka, ICD-10 kodnim sustavima i Nacionalnim registrom pružatelja usluga.
Sve tri tvrtke usmjerene su na iste probleme u radnom toku—preglede prethodnih odobrenja, obrada zahtjeva, klinička dokumentacija—sličnim tehničkim pristupima, ali različitim strategijama izlaska na tržište.
Razvojne platforme, ne dijagnostički proizvodi
Arhitektonske sličnosti su značajne. Svaki sustav koristi multimodalne velike jezične modele prilagođene medicinskoj literaturi i kliničkim skupovima podataka. Svi naglašavaju zaštitu privatnosti i regulatorne odricanja. Svaki se pozicionira kao podrška, a ne zamjena kliničkom prosudbom.
Razlike leže u modelima implementacije i pristupa. OpenAI-ov ChatGPT Health djeluje kao usluga za potrošače s čekanjem za korisnike ChatGPT Free, Plus i Pro izvan EEA, Švicarske i Velike Britanije. Googleov MedGemma 1.5 objavljuje se kao otvoreni model kroz svoj Health AI Developer Foundations program, dostupan za preuzimanje putem Hugging Face ili implementaciju kroz Google Cloud Vertex AI.
Claude for Healthcare integrira se u postojeće poslovne tokove kroz Claude for Enterprise, usmjeren na institucionalne kupce, a ne pojedinačne potrošače. Regulatorno pozicioniranje je dosljedno kod svih triju.
Regulatorni put ostaje nejasan
Regulatorni okvir za ove medicinske AI alate ostaje nejasan. U SAD-u, nadzor FDA ovisi o namjeni korištenja. Softver koji “podržava ili daje preporuke zdravstvenom profesionalcu o prevenciji, dijagnozi ili liječenju bolesti” može zahtijevati premarket pregled kao medicinski uređaj. Nijedno od najavljenih alata nema odobrenje FDA.
Ova regulatorna nejasnoća utječe na vremenske okvire usvajanja na tržištima gdje bi nedostaci u zdravstvenoj infrastrukturi inače mogli ubrzati implementaciju—stvarajući napetost između kliničkih potreba i regulatorne opreznosti.
Da li će ova AI rješenja transformirati zdravstvenu skrb ovisi o pitanjima koja ova koordinirana najave ostavljaju neodgovorenima.



