
Zašto najnoviji AI modeli još uvek nisu bezbedni za pacijente?
Veštačka inteligencija (AI) je fascinantna, ali kada je reč o zdravlju, još uvek nije spremna da zameni bele mantile. Novo istraživanje prestižne mreže Mass General Brigham iz Bostona otkrilo je ozbiljan propust da AI modeli ne uspevaju da postave adekvatnu diferencijalnu dijagnozu u više od 80% slučajeva.
Iako su četbotovi postali izuzetno precizni u imenovanju konačne bolesti kada dobiju sve podatke, studija objavljena u časopisu JAMA Network Open pokazuje da im nedostaje ključni proces, kliničko razmišljanje.
AI lekar ili opasna zabluda? ChatGPT „pao“ na testu hitne medicinske pomoći
Gde AI greši?
Problem nastaje na samom početku slučaja, kada su informacije šture (npr. samo godine pacijenta i jedan simptom). Dok lekar koristi „umetnost medicine“ da eliminiše slične bolesti i suzi izbor, AI se muči sa neizvesnošću, prenosi Euronews Health.
Istraživački tim je testirao 21 model, uključujući najnovije verzije GPT-5, Claude 4.5 Opus i Gemini 3.0, koristeći alat PrIME-LLM. Rezultati su jasni:
- Konačna dijagnoza: Uspešnost ide i preko 90% (kada su svi podaci na stolu).
- Diferencijalna dijagnoza: Neuspeh u više od 80% pokušaja.
Najbolji u klasi, ali i dalje nedovoljni
Među modelima koji su se najbolje pokazali izdvojili su se Grok 4, GPT-5, Claude 4.5 Opus i Gemini 3.0 Flash/Pro. Ipak, čak i ovi „vunderkindi“ tehnologije još uvek ne poseduju inteligenciju potrebnu za bezbednu upotrebu bez nadzora.
„Modeli su sjajni kada su podaci kompletni, ali zakazuju na otvorenom početku slučaja, kada informacija ima malo“, ističe Arya Rao, jedna od autorki studije.
Lekari upozoravaju javnost da AI može biti obećavajuć alat za informisanje, ali klinička procena ostaje nezamenljiva. Kada je zdravlje u pitanju, prečica preko algoritma još uvek je previše rizična.
Saznajte sve o dešavanjima u biznisu, budite u toku sa lifestyle temama. PRIJAVITE SE NA NAŠ NEWSLETTER
Izvor: BIZLife
Foto: Freepik






