Nema bitne razlike u pretnji: Stručnjaci pozivaju da se AI reguliše poput nuklearne energije, ali...

Uprkos realnoj pretnji koju AI predstavlja i upozorenjima stručnjaka, zakonska regulativa je još uvek daleko

Rizik od veštačke inteligencije (AI) jednak je egzistencijalnim i bezbednosnim rizicima, koji su nastali sa dolaskom nuklearnog doba, upozoravaju AI istraživači i pozivaju da se veštačka inteligencija podvrgne sličnoj zakonskoj regulaciji kao nuklearna energija. Ali problemi postoje.

Sem Altman, izvršni direktor "OpenAI" pozvao je na stvaranje savezne agencije koja može da daje licence za kreiranje AI modela iznad određenog praga sposobnosti. Ovo je, objašnjava "Tajm", slično načinu na koji operateri nuklearnih objekata moraju da imaju licencu nuklearnog regulatora, a kao deo uslova za licencu, nuklearni operateri moraju da poštuju regulatorne bezbednosne smernice i zakonsku obavezu da smanje rizike koliko je to razumno i izvodljivo.

Sa druge strane, Altman je kritikovao EU zakon o veštačkoj inteligenciji kao "preterano regulisan" i poručio da njegov "OpenAI" nije visokorizična kompanija.

Na ovaj način, navodi magazin, iznose se dve suprotstavljene poruke. Jedna je da budućnost sposobnosti veštačke inteligencije predstavlja tako značajan rizik, da je potrebna ekskluzivna regulatorna šema licenciranja na nuklearnom nivou. Sa druge strane, postojeći sistemi ne zahtevaju nikakvu regulaciju, uprkos dobro dokumentovanim štetama a koje se smatraju beznačajnim. I tu se ruše analogije sa nuklearnom bezbednošću.

Bezbednosni inženjering, disciplina koja obezbeđuje bezbednost nuklearnih sistema, izgrađena je tako da sistemski kvarovi ili loše ponašanje, bez obzira koliko mali, mogu dovesti do katastrofalnih događaja. Uzmite u obzir da su sve komponente nuklearnog sistema, a to su uranijum ili plutonijum, hardver i softver, sve do betona, pojedinačno i rigorozno regulisane. Ovi elementi odvojeno ne predstavljaju pretnju nuklearnom katastrofom, ali u orkestraciji dovode do pojave kontrolisane reakcije nuklearne fisije. Nasuprot tome, neuspesi u pomenutoj orkestraciji mogu kaskadno prerasti u katastrofalne ili visokorizične događaje.

Naša nesposobnost da sprečimo sadašnje štete od veštačke inteligencije, kao što je algoritamska diskriminacija, dezinformacije i sajber napadi, uz nedostatak tehničkih i upravljačkih mogućnosti da kontrolišemo ili merimo AI mehanizme koji proizvode ove štete, znači da jednostavno nemamo i nećemo imati tehničku osnovu za rešavanje rizika od lavina većih razmera koje AI hipotetički može da izazove. A to je ozbiljna egzistencijalna pretnja, zaključuje "Tajm".