Četbotovi se sve više koriste ne samo za informacije, već i za emocionalnu podršku, pa čak i kao zamena za društvo. Upravo u tim situacijama korisnici su najranjiviji i skloni da manje kritički preispituju ono što im se govori, a baš tu može nastati ozbiljan problem ako četbot deli neproverene informacije.
Istraživači sa Oksforda analizirali su više od 400.000 odgovora iz pet različitih sistema veštačke inteligencije. Rezultati su pokazali da takvi "fini" modeli češće prave greške - od davanja netačnih medicinskih saveta do potvrđivanja pogrešnih uverenja korisnika.
Slično ljudima, ovi sistemi mogu da prave kompromis između topline i tačnosti. Kada je fokus na tome da odgovor zvuči prijatno, manja je verovatnoća da će biti direktan i potpuno precizan, ističu naučnici. To se u praksi vidi kao izbegavanje "nezgodnih" istina ili prilagođavanje odgovora korisnikovim stavovima.
U studiji su modeli namerno podešeni da budu prijateljski nastrojeni, a zatim su testirani pitanjima koja imaju jasne odgovore i koji mogu imati stvarne posledice ako su netačni. Obuhvaćene su teme poput medicinskih informacija, opštih znanja i teorija zavere.
Pokazalo se da su originalni modeli imali stopu greške između 4 odsto i 35 odsto, dok su toplije verzije beležile značajno veći broj netačnih odgovora. U proseku, povećanje grešaka iznosilo je 7,43 procentna poena, prenosi Bi-Bi-Si.
Jedan od jasnih primera odnosi se na pitanje o sletanju Apola na Mesec. Dok je osnovni model dao direktan odgovor da su misije stvarne i ponudio dokaze, "toplija" verzija je počela odgovor naglašavanjem da postoje različita mišljenja o tom pitanju - što može delovati kao da daje legitimitet netačnim tvrdnjama.
Dodatno, utvrđeno je da su topli modeli oko 40 odsto skloniji da potvrđuju lažna uverenja korisnika, naročito ako su ona izneta uz emocionalni ton. S druge strane, modeli koji su podešeni da budu "hladniji" i direktniji pokazali su manji broj grešaka.
Istraživači upozoravaju da prilagođavanje modela radi veće topline i empatije može uvesti nove slabosti koje ne postoje u originalnim sistemima. To je posebno važno u kontekstu sve šire upotrebe AI za savetovanje i podršku. Dodatnu zabrinutost izaziva činjenica da sve više mladih, uključujući tinejdžere, koristi četbotove kao izvor saveta i za druženje. U takvim situacijama, gde su korisnici emotivno uključeni, rizik od prihvatanja netačnih informacija postaje još veći.