Algoritmi veštačke inteligencije mogu da poremete našu sposobnost razmišljanja
Prošle godine, Komisija za nacionalnu bezbednost SAD za veštačku inteligenciju zaključila je u izveštaju Kongresu da veštačka inteligencija „menja svet“.
Da li postajemo zavisni od aplikacija kojima upravlja veštačka inteligencija?
AI takođe menja um, jer mašina sa veštačkom inteligencijom sada postaje um. Ovo je nova realnost 2020-ih. Kao društvo, učimo da se oslanjamo na AI za toliko stvari, da bismo mogli postati manje radoznali i više verovati informacijama koje nam pružaju mašine koje pokreće veštačka inteligencija. Drugim rečima, već bismo mogli da budemo u procesu prenošenja našeg razmišljanja na mašine i, kao rezultat, da izgubimo deo naših sposobnosti. Trend ka većoj primeni AI ne pokazuje znake usporavanja. Na sreću, mnogo toga što se postiže pomoću veštačke inteligencije biće korisno, o čemu svedoče primeri da veštačka inteligencija pomaže u rešavanju naučnih problema u rasponu od savijanja proteina do istraživanja Marsa, pa čak i komunikacije sa životinjama. Većina aplikacija AI zasnovana je na mašinskom učenju i neuronskim mrežama dubokog učenja koje zahtevaju velike skupove podataka.
Za potrošačke aplikacije, ovi podaci se prikupljaju iz ličnih izbora, preferencija i izbora o svemu, od odeće i knjiga do ideologije. Na osnovu ovih podataka, aplikacije pronalaze obrasce, što dovodi do informisanih predviđanja o tome šta će nam verovatno trebati, šta ćemo želeti ili će nam biti najzanimljivije. Dakle, mašine nam pružaju mnoge korisne alate, kao što su mašine za preporuke i podrška za chatbot 24/7. Mnoge od ovih aplikacija izgledaju korisne — ili, u najgorem slučaju, benigne. Primer sa kojim se mnogi od nas mogu povezati su aplikacije koje pokreće veštačka inteligencija koje nam pružaju uputstva za vožnju. Ovo je nesumnjivo od pomoći jer sprečava ljude da se izgube. Ono što je zanimljivo je da većina nas ima uključenu aplikaciju za skoro svaku vožnju, čak i za destinacije koje smo prelazili mnogo puta mnogo puta. Možda nisam tako sigurni u svoja uputstva, a možda postajemo zavisni od aplikacija koje će davati pravac. Možda bi trebalo da posvetimo više pažnje ovoj ne tako suptilnoj promeni u našem oslanjanju na aplikacije koje pokreće veštačka inteligencija.
Već znamo da umanjuju našu privatnost. A ako umanje i našu ljudsku sposobnost, to bi moglo imati ozbiljne posledice. Ako verujemo da će aplikacija pronaći najbrži put između dva mesta, verovatno ćemo verovati drugim aplikacijama i sve više ćemo se kretati kroz život na autopilotu, baš kao i naši automobili u ne tako dalekoj budućnosti. A ako takođe nesvesno provarimo ono što nam je predstavljeno u vestima, društvenim medijima, pretrazi i preporukama, verovatno ne dovodeći u pitanje, da li ćemo izgubiti sposobnost da formiramo svoja mišljenja i interesovanja? Kako drugačije objasniti potpuno neutemeljenu teoriju QAnona da u američkoj vladi, biznisu i medijima postoje elitni pedofili koji obožavaju Satanu koji žele da skupljaju dečju krv? Teorija zavere je počela sa serijom postova na 4chan message board-u koji su se zatim brzo proširili na druge društvene platforme putem mehanizama za preporuke. Sada znamo – ironično uz pomoć mašinskog učenja – da je početne postove verovatno kreirao južnoafrički programer softvera sa malo znanja o SAD. Ipak, broj ljudi koji veruju u ovu teoriju nastavlja da raste; a po popularnosti parira nekim glavnim religijama.
Prema priči objavljenoj u Wall Street Journalu, intelekt slabi kako raste zavisnost od telefonske tehnologije. Isto verovatno važi za bilo koju informacionu tehnologiju gde sadržaj teče našim putem, a da mi ne moramo da radimo da bismo sami naučili ili otkrili. Ako je to tačno, onda bi veštačka inteligencija, koja sve više predstavlja sadržaj prilagođen našim specifičnim interesovanjima i odražava naše pristrasnosti, mogla da stvori sindrom samopojačavanja koji pojednostavljuje naše izbore, zadovoljava neposredne potrebe, slabi naš intelekt i zaključava nas u postojeći način razmišljanja. Naši izbori su smanjeni jer nam AI predstavlja opcije slične onima koje smo preferirali u prošlosti ili ćemo najverovatnije preferirati na osnovu naše prošlosti. Dakle, naša budućnost postaje uže definisana. U suštini, mogli bismo da postanemo zamrznuti u vremenu – oblik mentalne homeostaze – aplikacijama koje su teoretski dizajnirane da nam pomognu da donosimo bolje odluke. Ljudski mozak je izgrađen da prihvati ono što mu se kaže, posebno ako je ono što mu se kaže u skladu sa našim očekivanjima i štedi nas zamornog mentalnog rada.
Pozitivna povratna sprega koju predstavljaju algoritmi veštačke inteligencije koji vraćaju naše želje i preferencije doprinosi nastanku informacionih mehurića koje već doživljavamo, jačajući naše postojeće poglede, doprinoseći polarizaciji čineći nas manje otvorenim za različite tačke gledišta, manje sposobnim da se menjamo i pretvarajući nas u ljude kakvi nismo svesno nameravali da budemo. Ovo je u suštini kibernetika usaglašenosti, mašina koja postaje um dok se pridržava sopstvenog internog algoritamskog programiranja. Zauzvrat, ovo će nas – kao pojedince i kao društvo – učiniti istovremeno predvidljivijim i ranjivijim na digitalnu manipulaciju.
Naravno, to zapravo ne radi AI. Tehnologija je jednostavno oruđe koje se može koristiti za postizanje željenog cilja, bilo da se proda više cipela, da se ubedi u političku ideologiju, da kontrolišemo temperaturu u našim domovima ili da razgovaramo sa kitovima. U njegovoj primeni postoji namera. Da bismo održali našu agilnost, moramo insistirati na Povelji o pravima veštačke inteligencije koju je predložila Kancelarija za nauku i tehnologiju SAD. Više od toga, uskoro nam je potreban regulatorni okvir koji štiti naše lične podatke i sposobnost da razmišljamo svojom glavom. E.U. i Kina su napravile korake u tom pravcu, a sadašnja administracija vodi sličnim potezima u SAD.
Izvor: Venturebeat