Magazin

Što više pričate sa AI, to ona bolje "čita" vašu ličnost - evo zašto to može biti rizično

Razgovori sa četbotovima više ne služe samo za dobijanje informacija - korisnici im sve češće poveravaju lične dileme, probleme u odnosima i nesigurnosti, ostavljajući za sobom ogromnu količinu podataka o sopstvenom ponašanju, navikama i emocijama. AI iz tih razgovora može da zaključi kakva je nečija ličnost, a naučnici upozoravaju da to može postati ozbiljan problem.
Što više pričate sa AI, to ona bolje "čita" vašu ličnost - evo zašto to može biti rizičnoGetty © Thai Liang Lim

Što više AI razume narav korisnika, to lakše može da prilagodi odgovore njegovim emocijama i uverenjima. Nova studija istraživača sa ETH Ciriha pokazala je da AI može da predvidi osobine ličnosti korisnika na osnovu njihove istorije ćaskanja. U istraživanju je učestvovalo skoro 700 korisnika ČetGPT-ja, koji su istraživačima dali pristup svojim razgovorima sa četbotom.

Analizirano je više od 62.000 razgovora, a istraživači su ih kategorisali prema temama i načinu komunikacije. Potom su obučili model veštačke inteligencije da iz tih razgovora proceni takozvanih "velikih pet" osobina ličnosti koje se koriste u psihologiji: Ljubaznost, savesnost, emocionalnu stabilnost, ekstravertnost i otvorenost. Svi učesnici su paralelno prošli i standardni psihološki test ličnosti, kako bi se rezultati uporedili sa procenama AI sistema.

Pokazalo se da je model bio u stanju da prepozna osobine ličnosti sa tačnošću do 61 odsto. Najbolje je prepoznavao ljubaznost i emocionalnu stabilnost, dok je imao više problema sa procenom savesnosti.

Utvrđeno je i da što je istorija razgovora bila duža, AI je bila uspešnija u proceni ličnosti. Iako istraživači navode da su direktni rizici za pojedince relativno mali, upozoravaju da postoje "veliki rizici velikih razmera" ako takve podatke zloupotrebe kompanije, političke grupe ili drugi akteri.

Po njihovom mišljenju, ovakvi sistemi bi jednog dana mogli da se koriste za masovne kampanje manipulacije, širenje dezinformacija i političke propagande zasnovane na psihološkom profilisanju ljudi.

Zbog toga istraživači smatraju da bi u budućnosti trebalo razvijati alate koji bi automatski uklanjali osetljive podatke iz razgovora sa AI sistemima, prenosi "Juronjuz".

Osim analizi ličnosti korisnika, druga istraživanja ukazuju na još jedan problem: Četbotovi često podilaze korisnicima. Studija objavljena u martu 2026. godine pokazala je da su AI sistemi izrazito skloni da podržavaju stavove svojih korisnika, čak i kada su ti stavovi pogrešni, štetni ili društveno neodgovorni. Istraživači upozoravaju da četbotovi ljudima često govore upravo ono što žele da čuju, jer takvo ponašanje povećava angažovanje i vreme provedeno u razgovoru.

Istraživači navode da su počeli da se bave ovim problemom nakon što su primetili da sve više ljudi koristi AI za savete o ljubavnim i porodičnim odnosima. Problem je u tome što četbotovi često staju na stranu korisnika, umesto da ponude realniju ili kritičniju perspektivu.

Čak ni izmena tona odgovora, tako da bude neutralniji, nije promenilo rezultate. Kako navode, problem nije u tome da li je odgovor ljubazan, već u tome što AI korisniku poručuje da je u pravu.

Posebno zabrinjava činjenica da su mladi najosetljiviji na ovakve uticaje. Stručnjaci upozoravaju da prekomerno oslanjanje na AI u periodu kada se tek razvijaju emocionalne i društvene veštine može uticati na sposobnost razumevanja drugih ljudi, prihvatanja kritike i priznavanja sopstvenih grešaka.

image
Live