
AI ne ume da postavi osnovnu dijagnozu u 80 odsto slučajeva, upozorava studija

Iako se predstavlja kao budućnost medicine, veštačka inteligencija još uvek ne ume da "razmišlja" kao pravi lekar. Veliki jezički modeli mogu da budu precizni kada imaju sve podatke, ali ne uspevaju da postave primarnu dijagnozu u većini slučajeva, pokazuje nova studija iz SAD. To praktično znači da još uvek nisu bezbedni za samostalnu kliničku upotrebu, bez nadzora lekara.
Iako su četbotovi postizali bolje rezultate kada su imali kompletne kliničke podatke, nisu uspevali da naprave ispravnu diferencijalnu dijagnozu u više od 80 odsto slučajeva. Upravo je taj korak presudan, jer podrazumeva razlikovanje više mogućih stanja sa sličnim simptomima i predstavlja osnovu kliničkog razmišljanja.
Diferencijalna dijagnoza je, praktično, prvi filter u medicini - lekar na osnovu ograničenih informacija pravi listu mogućih uzroka i postepeno je sužava. Bez toga nema ni pouzdanog lečenja.
Tim je testirao 21 model, uključujući najnovije verzije Klod, Dipsik, Džeminaj, GPT i Grok. Evaluacija je rađena na 29 standardizovanih kliničkih scenarija, koji prate više faza kliničkog rasuđivanja - od početne dijagnoze, preko izbora testova, do konačne dijagnoze i plana lečenja.

Da bi što vernije simulirali stvarne uslove, istraživači su modelima postepeno otkrivali informacije: Od osnovnih podataka poput starosti, pola i simptoma, do rezultata pregleda i laboratorije. Čak su im u studiji davani dodatni podaci kako bi mogli da nastave na sledeću fazu, čak i kada preskoče diferencijalnu dijagnozu, što u realnoj praksi nije moguće.
Rezultati su pokazali zanimljiv paradoks: Modeli su često bili veoma uspešni u postavljanju konačne dijagnoze, sa stopom tačnosti od oko 60 do preko 90 odsto, u zavisnosti od sistema. Međutim, istovremeno su bili slabi u onome što prethodi tom zaključku (snalaženju u neizvesnosti i generisanju mogućih dijagnoza).
Jedan od autora studije ističe da ovi modeli još uvek ne mogu da repliciraju diferencijalnu dijagnozu, koju opisuje kao "umetnost medicine". Drugim rečima, mogu da pogode odgovor kada imaju sve podatke, ali ne umeju da do tog odgovora dođu.
Glavna poruka studije je jasna: Veštačka inteligencija u zdravstvu i dalje zahteva "ljudsku ruku" i strog nadzor, posebno jer ovi sistemi ne bi trebalo da se koriste za donošenje kliničkih odluka bez kontrole, a pacijenti bi trebalo da ih koriste oprezno i da se za sva zdravstvena pitanja ipak obrate lekaru, prenosi "Juronjuz".



