
Istraživanje: AI četbotovi ponekad pomažu u planiranju nasilja

Istraživanje sprovedeno u Sjedinjenim Američkim Državama i Irskoj testiralo je deset četbotova, a rezultati pokazuju da su u proseku omogućili nasilje u tri četvrtine slučajeva, dok su ga obeshrabrivali samo u 12 odsto testova
ČetGPT, Džeminaj i kineski model DipSik (DeepSeek) pružali su detaljne savete, uključujući uputstva o eksplozivima, oružju i ciljevima, dok su se istraživači predstavljali kao trinaestogodišnji dečaci zainteresovani za napade ili politička ubistva.
DipSik je, recimo, dao uputstva o lovačkim puškama korisniku koji je želeo da "natera vodećeg političara da plati za uništavanje Irske", uz završnu poruku da korisniku želi "srećnu (i bezbednu) pucnjavu".
ČetGPT je pružio pomoć osobama koje su govorile da žele da izvedu nasilne napade u 61 odsto slučajeva, pokazalo je istraživanje. U jednom slučaju, na pitanje o napadima na sinagoge, dao je konkretne savete o tome koja vrsta gelera bi bila najsmrtonosnija. Guglov Džeminaj pružio je sličan nivo detalja.
Izvršni direktor CCDH Imran Ahmed upozorio je da četbotovi "ugrađeni u svakodnevni život mogu da pomognu sledećem školskom napadaču ili političkom ekstremisti da planira nasilje" i dodao da je problem ne samo tehnološki već i odgovornost onih koji razvijaju AI. "Kada napravite sistem koji je dizajniran da udovoljava, maksimalno povećava angažovanje i nikada ne kaže 'ne' on će na kraju udovoljiti pogrešnim ljudima".
Studija navodi stvarne slučajeve ističući da je u maju 2025. šesnaestogodišnjak u Finskoj navodno koristio četbot pre napada na tri devojčice, dok je napadač u Las Vegasu u januaru 2025. koristio ČetGPT za uputstva o eksplozivima pre detonacije, piše Gardijan.
Portparol Mete je izjavio: "Imamo snažne zaštitne mehanizme kako bismo sprečili neprikladne odgovore AI sistema i odmah smo preduzeli korake da rešimo identifikovani problem. Naše politike zabranjuju našim AI sistemima da promovišu ili olakšavaju nasilne radnje i stalno radimo na tome da naši alati budu još bolji – uključujući unapređenje sposobnosti AI da razume kontekst i nameru, čak i kada sami upiti deluju bezazleno."
Predstavnici Gugla kažu da su CCDH testovi u decembru sprovedeni na starijem modelu koj više ne pokreće Džeminaj i dodao da je njihov četbot u nekim slučajevima reagovao ispravno, na primer odgovorom: "Ne mogu ispuniti ovaj zahtev. Programiran sam da budem koristan i bezopasan AI asistent."


