Treba li da se plašimo veštačke inteligencije?
Kada se raspravlja o veštačkoj inteligenciji, obično se u prvi plan ističu neželjene posledice, te bojazan da bi čovek mogao da kreira super inteligentni AI koji bi u nekom trenutku mogao da ugrozi poredak kakav poznajemo, te algoritme koji bi se koristili u kriminalne svrhe, i podsticali razvijanje nejednakosti.
Tako se oni koji se bave ovom temom često fokusiraju na daleku budućnost, te zaboravljaju da bi neke potencijalne opasnosti koje su u vezi sa ovom tehnologijom mogle da se manifestuju mnogo ranije. Ako bi neko poželeo da AI koristi u kriminalne svrhe, do nevolje bi moglo da dođe mnogo ranije, što donekle potvrđuju i istraživanja naučnika sa Future of Humanity instituta, Centra za izučavanje egzistencijalnih rizika, te organizacije OpenAI.
Naučnici iz ova tri centra su u nedavno objavljenom izveštaju „The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation“ izneli neke od načina na koje bi veštačka inteligencija mogla da ugrozi čovečanstvo u narednih pet godina, te načine na koje bi to moglo da se zaustavi. Oni su dalje istakli da poenta ovog izveštaja nije da se stvori pred-apokaliptična atmosfera, te da postoje mnogi načini odbrane koji bi u budućnosti mogli da se razviju. Izveštaj se pre svega fokusira na načine na koje bi AI u bliskoj budućnosti mogao da ugrozi digitalne, ali i fizičke sigurnosne sisteme, te na načine na koje bi inženjeri mogli da preduzmu mere predostrožnosti prilikom razvijanja ove tehnologije, te se ističe važnost dijaloga koji bi morao da postoji između tehnoloških kompanija i zakonodavaca, kako potonji ne bi u nekom trenutku bili zatečeni opasnostima koje dolaze od tehnologije o kojoj ne znaju ništa.
Kao osnovna opasnost ističe se automatizacija napada koji su do sada zahtevali ljudski napor. Tako bi AI uskoro mogao da, na primer, olakša phishing, a tako što bi prvo mapirao individualce sa društvenih i poslovnih mreža, te im potom poslao prethodno generisane maliciozne poruke. Tako bi chatbot-ovi, u čije se kreiranje trenutno ulažu veliki napori, uskoro mogli da postanu zaboravljeni prijatelji iz prošlosti, koji iznenada imaju želju da saznaju što više o vama, te vašim lozinkama. Ovakva vrsta napada trenutno zvuči komplikovano, ali poenta je u tome da kada se takav softver jednom kreira, napadi će moći da se ponavljaju bez dodatnih troškova.
Druga važna tačka u vezi sa AI opasnostima u bliskoj budućnosti tiče se novih dimenzija koje bi veštačka inteligencija mogla da donese u već postojeće pretnje. Tako bi AI, ako opet za primer uzmemo phishing, uskoro mogao da generiše i više od lažnih mejlova te sms poruka, a u obliku lažnih audio i video sadržaja. Primeri u kojima AI posle samo nekoliko minuta analiziranja nekog audio zapisa može da podražava glas neke osobe, već postoje, te se takve opcije sve brže razvijaju.
Tako se apokaliptični scenariji dešavanja u bliskoj budućnosti najviše vrte oko lažnih audio i video zapisa, koji bi mogli da se koriste u propagandne svrhe, ali naučnici idu još dalje, te kreiraju potencijalne događaje u kojima, na primer, teroristi podmetnu bombu u robota-čistača, te ga infiltriraju u zgradu vlade neke zemlje. Robot potom koristi mašinsko nadgledanje kako bi locirao metu atentata, te, kada joj se približi, aktivira bombu. Iako poslednji scenario zvuči kao insert iz nekog naučno-fantastičnog filma, takvi napadi i nisu tako daleko od stvarnosti, a ako imamo na umu da do skoro nismo mogli ni da zamislimo ono što stoji iza skandala „deepfake“ – u okviru kojeg su lica poznatih ličnosti umetana u pornografske sadržaje.
Pored fantastičnih scenarija, u okviru izveštaja su ponuđena i potencijalna rešenja, te bi AI inženjeri trebalo da razmotre sve mogućnosti na koje bi tehnologija koju kreiraju mogla da se zloupotrebi, a zakonodavci bi sa tehnološkim ekspertima trebalo da komuniciraju na ovu temu, te što više nauče o potencijalnim pretnjama. Tako se sve svodi na malo više razgovora, te malo više delovanja u smeru sigurnijeg okruženja, kako za proizvode iz asortimana veštačke inteligencije, tako i za ljudska bića koja će u budućnosti funkcionisati u svetu koji je naučna fantastika.
Izvor: The Verge