Veštačka inteligencija (VI) postaje sve prisutnija u našem svakodnevnom životu, kako u poslovnom, tako i u privatnom sektoru. Ona može biti najvažnija tehnologija koju je razvio ljudski rod. Ona je važan alat za istraživače. Primer je sistem VI nazvan AlphaFold koji je napravio ogroman iskorak u pravcu rešavanje problema savijanja proteina, na čemu su naučnici radili decenijama. Međutim, kontrola primene i etička upotreba VI su ključni aspekti koji se moraju uzeti u obzir kako bi se osigurala da se VI koristi na način koji štiti privatnost pojedinca.
Jedan od glavnih problema sa VI je to što se podaci o pojedincima koriste za treniranje algoritama. Ovo može uključivati skupljanje ličnih podataka, kao što su imena, adrese, brojevi telefona ili lični podaci o zdravstvenom stanju. Ako se ti podaci ne čuvaju na siguran način ili ako se koriste na neetičan način, to može predstavljati rizik za privatnost pojedinca.
Drugi problem je tačnost VI. Sistemi za veštačku inteligenciju su još uvek daleko od savršenstva i mogu pogrešno predvideti ili donositi odluke što može imati negativne posledice za pojedince. Na primer, ako se VI koristi za odlučivanje o kreditnoj sposobnosti pojedinca, njegovom zposlenju, ili potrebi za socijalnom pomoći – pogrešna odluka može imati negativne posledice za njihov finansijski život.
Ima mnogo etičkih problema u vezi upotrebe VI. Navešćemo nekoliko najvažnijih:
Hijerarhija rada se prvenstveno bavi automatizacijom. Pošto smo izmislili načine da automatizujemo poslove, mogli bismo da stvorimo prostor za ljude da preuzmu složenije uloge, prelazeći sa fizičkog rada koji je dominirao predindustrijskim svetom do kognitivnog rada koji karakteriše strateški i administrativni rad u našem globalizovanom društvu.
Naš ekonomski sistem se zasniva na naknadi za doprinos privredi, koja se često procenjuje korišćenjem satnice. Većina kompanija i dalje zavisi od rada po satu kada su u pitanju proizvodi i usluge. Ali korišćenjem veštačke inteligencije, kompanija može drastično da smanji oslanjanje na ljudsku radnu snagu, a to znači da će prihodi ići manjem broju ljudi. Shodno tome, pojedinci koji imaju vlasništvo u kompanijama vođenim veštačkom inteligencijom će zaraditi sav novac.
Veštački inteligentni botovi postaju sve bolji u modeliranju ljudskih razgovora i odnosa. 2015. godine, bot po imenu Judžin Gustman je po prvi put pobedio Turingov izazov. U ovom izazovu, ljudi koji ocenjuju koristili su unos teksta da ćaskaju sa nepoznatim entitetom, a zatim su pogodili da li su ćaskali sa čovekom ili mašinom. Judžin Gustman je prevario više od polovine ljudi koji su ocenjivali ljude da misle da su razgovarali sa ljudskim bićem.
Inteligencija dolazi od učenja, bilo da ste čovek ili mašina. Sistemi obično imaju fazu obuke u kojoj „uče“ da otkriju prave obrasce i deluju u skladu sa svojim unosom. Kada je sistem potpuno obučen, onda može da pređe u fazu testiranja, gde se dobija više primera i vidimo kako se ponaša. Ali, obuka nikad nije potpuna…
Iako je veštačka inteligencija sposobna za brzinu i kapacitet obrade koji su daleko veći od ljudskih, ne može se uvek verovati da je fer i neutralna. Gооglе i njegova matična kompanija Alphabet su jedni od lidera kada je u pitanju veštačka inteligencija, kao što se vidi u Google-ovoj usluzi Photos, gde se veštačka inteligencija koristi za identifikaciju ljudi, objekata i scena. Ali može poći naopako, kao kada je kamera promašila oznaku rasne osetljivosti ili kada je softver koji se koristi za predviđanje budućih kriminalaca pokazao pristrasnost prema crncima.
Što tehnologija postaje moćnija, to više može da se koristi iz loših, ali i dobrih razloga. Ovo se ne odnosi samo na robote proizvedene da zamene ljudske vojnike ili autonomno oružje, već i na sisteme veštačke inteligencije koji mogu da izazovu štetu ako se koriste zlonamerno. Pošto se ove borbe neće voditi samo na bojnom polju, sajber bezbednost će postati još važnija. Na kraju krajeva, imamo posla sa sistemom koji je brži i sposobniji od nas.
Ne moramo da brinemo samo o protivnicima. Šta ako se sama veštačka inteligencija okrene protiv nas? To ne znači pretvaranje u „zlo“ na način na koji ljudska moć može, ili na način na koji su katastrofe VI prikazane u holivudskim filmovima. Umesto toga, napredni sistem veštačke inteligencije možemo zamisliti kao „duha u boci“ koji može da ispuni želje, ali sa strašnim nepredviđenim posledicama.
Razlog zašto su ljudi na vrhu lanca ishrane nije u oštrim zubima ili snažnim mišićima. Ljudska dominacija je skoro u potpunosti posledica naše domišljatosti i inteligencije. Možemo da dobijemo bolje od većih, bržih, jačih životinja jer možemo da kreiramo i koristimo alate da ih kontrolišemo: kako fizičke alate kao što su kavezi i oružje, tako i kognitivne alate poput treninga i kondicioniranja.
Dok neuronaučnici još uvek rade na otkrivanju tajni svesnog iskustva, razumemo više o osnovnim mehanizmima nagrade i averzije. Ove mehanizme delimo čak i sa jednostavnim životinjama. Na neki način gradimo slične mehanizme nagrađivanja i averzije u sistemima veštačke inteligencije. Na primer, učenje sa pojačanjem je slično obuci psa: poboljšani učinak je pojačan virtuelnom nagradom.
S obzirom na ove potencijalne probleme, važno je da se razviju jasna pravila i regulativa o upotrebi VI, kao i da se osigura da se podaci o pojedincima čuvaju na siguran i transparentan način. To podrazumeva jasno definisana pravila o tome kako se podaci o pojedincima mogu koristiti, kao i mehanizme za praćenje i kontrolu upotrebe tih podataka.
Takođe, važno je da postoji transparentnost u vezi sa upotrebom VI. To podrazumeva da građani imaju pristup informacijama o tome kako se VI koristi i koji podaci se skupljaju. Osim toga, građani treba da imaju pravo da znaju da li su njihovi podaci pohranjeni u sistemu i da imaju pravo da zahtevaju da se ti podaci brišu.
Etička upotreba VI takođe igra važnu ulogu u zaštiti privatnosti. Etička upotreba VI podrazumeva da se algoritmi koriste na način koji je u skladu sa ljudskim vrednostima, kao što su jednakost, sloboda i dostojanstvo pojedinca. To podrazumeva da se VI ne koristi na način koji diskriminiše pojedince ili krši njihove ljudske prava.
Još jedna važna stvar je da se osigura da se VI koristi u skladu sa zakonom. To podrazumeva da se VI koristi u skladu sa zakonima koji štite privatnost pojedinca, kao što su zakoni o zaštiti podataka i zakoni o ljudskim pravima. Osim toga, važno je da postoji mehanizam za kontrolu i odgovornost za upotrebu VI.
Radeći na etičkoj upotrebi VI tokom tzv. Asilomar konferencije došlo se do sledećih principa koji su od izuzetne važnosti:
U svakom slučaju, važno je da se balansira između potrebe za napretkom i inovacijama u oblasti VI i potrebe za zaštitom privatnosti pojedinca. Kontrola primene i etička upotreba VI su ključni aspekti koji se moraju uzeti u obzir kako bi se osiguralo da se VI koristi na način koji štiti privatnost pojedinca. Potrebno je da se razvije i implementira jasan okvir za regulisanje upotrebe VI koji će osigurati da se privatnost pojedinca poštuje u svim situacijama.