Magazin

Koje podatke nikada ne bi trebalo da delite sa veštačkom inteligencijom

U vreme kada sa veštačkom inteligencijom razgovaramo gotovo kao sa prijateljem, a lični AI asistenti sa lakoćom rešavaju naše svakodnevne zadatke, lako zaboravljamo da sa druge strane nije čovek već softver koji "uči" od nas. Iako ovi napredni alati čine život znatno jednostavnijim, njihova sve veća prisutnost u privatnom i poslovnom životu zahteva veću pažnju i oprez, jer poverljivi podaci koje delimo sa njima mogu lako završiti kod drugih korisnika.
Koje podatke nikada ne bi trebalo da delite sa veštačkom inteligencijomGetty © Alex Cristi

Bezbednost na internetu u današnje vreme ne podrazumeva samo obazrivo pristupanje sajtovima ili pažljivo otvaranje mejlova, već i razumevanje načina na koji veštačka inteligencija funkcioniše i koje podatke prikuplja. S tim u vezi, stručnjaci za sajber bezbednost s vremena na vreme podsećaju korisnike da sa čet-botovima ipak ne treba deliti baš sve, jer se oni na našim podacima uvežbavaju, a znači i da informacije o nama u nekim situacijama mogu i da "procure". Šta to ne bi trebalo deliti sa veštačkom inteligencijom?

Lične informacije koje otkrivaju indentitet

Podaci poput jedinstvenog matičnog broja građana (JMBG), adrese stanovanja, brojevi isprava zdravstvenog osiguranja, pasoša i ličnih karata vas i članova vaše porodice, brojevi telefona i slične privatne informacije nikada ne bi trebalo da dospeju "u ruke" ČetGPT i drugih alata sa veštačkom inteligencijom. Iako većina popularnih softvera nastoji na tome da ograniči prikupaljanje ličnih podataka, treba imati u vidu da na osnovu njih oni uče da generišu odgovore i izvode zaključke - a znači, koriste ih i mogu ih (možda čak i nehotice) podeliti, prenosi Vašington Post.

Rezultate medicinskih ispitivanja

Od kako se pročulo da se veštačka inteligencija dobro snalazi sa dijagnostikovanjem, ljudi su masovno počeli da odgovore na zdravstvena pitanja koja ih muče traže na toj adresi. Ovo nije pametno iz dva razloga: prvi je taj što AI softveri uglavnom daju generičke odgovore bazirane na izvorima koji već postoje na internetu, a drugi - taj što bi, da bi on sagledao kompletnu sliku, to zahtevalo deljenje detaljnih informacija o zdravstvenom stanju - laboratorijskih analiza, snimaka magnetne rezonance ili rendgena i slično. Zašto ovo nije dobro? Vratimo se na početak: podaci koje delimo sa AI mogu dospeti u javnost.

Finansijske i poslovne podatke

Baš kao što ni podatke o ličnosti i detalje zdravstvenog stanja ne bi trebalo da delimo sa veštačkom inteligencijom, tako ne bi trebalo ni finansijske podatke - brojeve bankovnih računa, kreditnih kartica, podatke iz poreske uprave i slično. Takođe, čet-botovima ne bi trebalo davati ni pristup poverljivim poslovnim podacima poput detalja iz biznis plana, informacija o nabavkama, izveštaja o poslovnom uspehu i slično. Uvek treba imati na umu činjenicu da čak i najbanalnije informacije ČetGPT i drugi AI softveri čuvaju u svojoj memoriji, obrađuju i potencijalno distribuiraju drugim korisnicima u vidu odgovora na njihove promptove, odnosno upite.

Lozinke za logovanje

Ekspanzija ličnih AI asistenata, koji za svoje korisnike obavljaju određene repetitivne aktivnosti (slanje mejlova, sastavljanje spiskova za nabavku namirnica, podsećanje na roditeljske sastanke i slično), dovela je do toga da im korisnici sve češće daju svoje lozinke za logovanje na mejl, kalendar i slično. Međutim, malo ko od njih je svestan rizika koji to nosi. Sve podatke za logovanje, poput imena korisnika, lozinke i kontrolnog pitanja uvek bi trebalo držati podalje od veštačke inteligencije, u idealnom slučaju - u takozvanom menadžeru lozinki koji je implementiran u internet pretraživač. 

image