Nakon napada nožem u Solingenu, savezna Vlada je njemačkom Bundestagu predložila takozvani sigurnosni paket koji bi trebao da omogući upotrebu vještačke inteligencije (AI) u provođenju zakona.
Ova mogućnost otvara pitanja šta bi bilo tehnički moguće, šta bi bilo dozvoljeno, kako AI koristiti u provođenju zakona i kasnije na sudu… Stručnjaci iz cijele Njemačke baviće se ovim od četvrtka na prvom Bayreuth IT Danu krivičnog prava.
Christian Rückert sa Katedre za krivično pravo na Univerzitetu u Bayreuthu organizirao je ovu konferenciju i u intervjuu za BR24 je naglasio moguću upotrebu umjetne inteligencije u primjeni krivičnog prava. Kao primjer je naveo istraživanje koje je u toku o tome da li se AI može koristiti za prepoznavanje glasova i govora što bi bilo vrlo korisno za telefonski nadzor.
Također se razmatra mogućnost da prikriveni istražitelji u budućnosti koriste deepfakes generisane umjetnom inteligencijom čime bi, pretvarajući se da su neko drugi, istražitelji moglo navesti krivce da priznaju odgovornost.
“Tehnički to više nije veliki problem, druga strana to već uspješno radi”, objašnjava Rückert i podsjeća na slučajeve u kojima je AI korištena da simulira glasove stvarnih ljudi zaposlenih u nekoj kompaniji kako bi prevarili druge da u neke svrhe plate visoke iznose.
„Još nije jasno da li će i sudovima biti dozvoljeno da koriste ovu metodu obmane u budućnosti – pitanje je da li to možete učiniti legalno jer je to, naravno, ozbiljno kršenje ličnih prava“, rekao je ovaj naučnik.
Naglasio je i da je drugi problem s upotrebom AI u sudovima – nedostatak transparentnosti ili, kako on to naziva, problem crne kutije.
“Ne znamo tačno kako AI dolazi do odluka koje donosi“, kaže on i napominje da optuženi imaju pravo da znaju zašto i na osnovu čega je presuda donijeta.
U osnovi, AI se zasniva na takozvanom mašinskom učenju, a softver se obučava podacima i tu postoji veliki rizik jer se može dogoditi da se softver napaja podacima koji su izobličeni u određenom smjeru, pojasnio je Rückert.
Kada baštensko crevo postane vatreno oružje
Kao primjer Rückert navodi slučaj kada su stručnjaci pokušali napraviti program koji bi otkrio vatreno oružje u rukama ljudi.
„Očigledno je korišteno mnogo slika na kojima su ljudi s nebijelom kožom koji su držali vatreno oružje i rezultat velika vjerovatnoća da će sistem pogrešno identificirati svakodnevni predmet poput mobilnog telefona ili baštenskog crijeva kao oružje ako osoba nije bijelac. S takvim problemima se moramo baviti posebno na krivičnom sudu jer ne smijemo osuđivati nikoga na osnovu takvih grešaka”, pojašnjava Rückert.
On je dao i negativan primjer s provjerom lica metodom koja je navodno korištena za identifikaciju bivše teroristice RAF-a Daniele Klete: u SAD-u je osoba držana u pritvoru tri sedmice jer je program za prepoznavanje lica pogrešno identifikovao kao počinioca, ali softver nije koristila policija, već kompanija koja je oštećena.
Pouzdanost AI treba bolje procijeniti
Uprkos iskustvu sa greškama koje je napravila vještačka inteligencija, profesor krivičnog prava smatra da se AI mora posmatrati kao velika prilika u oblasti provođenja zakona. Kaže da softver uspijeva procijeniti podatke “koji periodu s ljudskom inteligencijom nikada ne bi mogli biti procijenjeni u razumnom vremenskom”. Međutim, on upozorava i da, kada koriste AI u provođenju zakona, posebno u slučaju velikih količina podataka, ljudi moraju razumjeti kako softver dolazi do rezultata.
“Potrebne su nam tehničke opcije da bolje procijenimo pouzdanost AI”, kaže Rückert.
(R. Č.)
Izvor: br.de