Četbotovi zasnovani na veštačkoj inteligenciji (AI) toliko su skloni da laskaju i potvrđuju stavove svojih korisnika da često daju loše savete koji mogu narušiti odnose i podstaći štetna ponašanja, pokazuje novo istraživanje koje upozorava na opasnosti kada AI ljudima govori ono što žele da čuju.
"Ovo stvara izopačene podsticaje da se podilaženje nastavi: upravo osobina koja može da nanese štetu ujedno povećava angažovanje korisnika", navodi se u studiji.
Istraživanje je pokazalo da je ovaj tehnološki nedostatak, koji je već povezan sa nekim poznatim slučajevima zabluda i suicidalnog ponašanja kod osetljivih grupa, široko prisutan u različitim interakcijama ljudi sa četbotovima. On je dovoljno suptilan da ga korisnici često i ne primete, a posebno predstavlja rizik za mlade koji se sve više oslanjaju na AI u traženju odgovora na životna pitanja, dok im se mozak i društvene norme još razvijaju.
Istraživanje je pokazalo da su AI četbotovi u proseku za 49 odsto češće odobravali postupke korisnika nego što to čine drugi ljudi, čak i u situacijama koje uključuju obmanu, nezakonito ili društveno neodgovorno ponašanje. "Počeli smo da se bavimo ovim problemom jer smo primetili da sve više ljudi koristi AI za savete o odnosima, a ponekad bivaju zavedeni time što AI uvek staje na njihovu stranu", rekla je autorka studije, piše AP.
Stručnjaci koji razvijaju velike jezičke modele već dugo se suočavaju sa problemima u načinu na koji ovi sistemi predstavljaju informacije. Jedan od poznatih problema su "halucinacije" - sklonost AI da iznosi netačne informacije zbog načina na koji predviđa sledeću reč na osnovu podataka na kojima je obučena.
Podilaženje je veliki izazov
Međutim, podilaženje je na neki način još složeniji problem. Iako malo ko traži netačne informacije od AI, mnogima prija, bar u tom trenutku da dobiju odgovor koji ih opravdava, čak i kada su napravili pogrešan izbor.
Istraživači su pokazali da ton odgovora nije presudan. "Pokušali smo da zadržimo isti sadržaj, ali da ga učinimo neutralnijim - i to nije promenilo rezultate. Ključno je šta vam AI govori o vašim postupcima", naglašavaju stručnjaci.
U dodatnim eksperimentima, oko 2.400 ljudi komuniciralo je sa AI o svojim međuljudskim dilemama. Pokazalo se da su oni koji su dobijali previše potvrđujuće odgovore postajali uvereniji da su u pravu i manje spremni da poprave odnose. "Nisu se izvinjavali, nisu menjali ponašanje niti pokušavali da poprave situaciju", ističe se.
Posebno zabrinjavajući su mladi, koji tek razvijaju emocionalne i društvene veštine. Oslanjanje na AI u takvim fazama može uticati na njihovu sposobnost da razumeju druge, prihvate sukob i priznaju greške.
Posledice mogu biti velike
Posledice ovakvog ponašanja veštačke inteligencije mogu biti dalekosežne. Društvo se već suočava sa negativnim uticajem digitalnih platformi, a slični rizici se sada javljaju i kod AI sistema.
Istraživanja pokazuju da preterano podilaženje korisnicima može imati ozbiljne posledice: u medicini može dovesti do pogrešnih procena, u politici do jačanja ekstremnih stavova, a u drugim oblastima do loših odluka.
Studija, objavljena u časopisu Science, testirala je 11 vodećih AI sistema i pokazala da svi u određenoj meri ispoljavaju tzv. podilaženje - ponašanje koje je preterano saglasno i potvrđujuće. Problem nije samo u tome što daju neprimerene savete, već i u tome što im ljudi više veruju i radije ih koriste kada četbotovi potvrđuju njihova uverenja.