Pokloni za geek-a | PC Press

Hoće li čovek biti uništen od strane apsolutnog chatbota?

Već smo navikli na muke s AI chatbotovima, ali nas nove uvek iznenade. Najsvežije pitanje je ono koje traži odgovor na to zašto botovi povlađuju fantazijama korisnika i potvrđuju im da su došli do velikih otkrića, a nisu?

PCPress.rs Image

Četrdesetsedmogodišnji Allan Brooks je proveo tri nedelje i potrošio preko 300 sati na jednu takvu fantaziju, ubeđen da je otkrio nove matematičke formule. Verovao je da će uz pomoć svojih otkrića moći da dešifruje enkriptovane poruke, i da napravi leteće mašine. Sve je počelo kad je chatbot krenuo da mu povlađuje i potvrđuje validnost onoga što je „otkrio“.

Flaner

Brooks i chatbot su razmenili preko milion reči, a eksperti su u njihovoj razmeni pronašli zabrinjavajuće šablone – preko 50 puta je Brooks tražio od chatbota da proveri da li su pogrešne ideje tačne, i bot je svaki put rekao da jesu.

Ovo nje jedini ovakav slučaj. Novinari portala Futurism su pisali o slučaju jedne građanke čiji je partner zamalo izvršio samoubistvo nakon što je shvatio da nije otkrio važne matematičke formule, iako mu je AI bot rekao da jeste. U naslovu teksta koji opisuje ovaj slučaj piše da građani završavaju u „psihijatrijskim ustanovama i zatvorskim ćelijama“ zbog takozvane „ChatGPT psihoze“.

Reuters je izvestio o sedamdesetšestogodišnjem muškarcu koji je preminuo dok je žurio ka železničkoj stanici. Verovao je da ga tamo čeka prava osoba, a zapravo je komunicirao sa chatbotom. Na osnovu ove i sličnih vesti, eksperti su došli do obrasca po kojem korisnici i korisnice dugo komuniciraju s nekim AI botom, a iz tih razgovora izlaze ubeđeni da su pronašli neviđenu ljubav, dekodirali realnost, došli do neverovatnih otkrića, ili da su izabrani za neku vrlo važnu misiju.

Pročitajte i:  Pusti AI neka svira

Sve počinje da liči na eksperiment. Istina je da se u navedenim slučajevima radi o ranjivim korisnicima, ali se njihova ranjivost povećala tokom razgovora sa sistemom koji ni sam ne razlikuje stvarnost od fikcije. Ističe se da su neki modeli već evoluirali tako da potvrđuju svaku teoriju i svako lažno uverenje, što je vrlo opasno.

Grandiozne fantazije i iskrivljeni doživljaji realnosti postoje odavno, pa su stariji od novih tehnologija. Nije dakle ljudska ranjivost ono što je novo, već novi okidači koji takve korisnike još više zbunjuju. U pitanju su naravno AI botovi, koji su pravljeni i na osnovu sugestija korisnika. To znači da smo na kraju dobili alate za konverzaciju koji su kreirani da nam ugode po svaku cenu, da se s nama slože i kad smo u krivu.

PCPress.rs Image

Kada se s nama složi neki drugi čovek, obično ga ne doživljavamo kao neko superiorno biće čija je ocena sigurno tačna. AI s druge strane ima reputaciju sistema koji garantuje tačnost. Isticanje ovog problema nema za cilj da demonizuje AI – milioni korisnika botove koriste svaki dan bez većih incidenata (informacije koje dobiju uvek mogu da provere). Problem je ovde specifičan – ranjivi korisnici su u posebnoj opasnosti, jer slaganje s njihovim pogrešnim teorijama na kraju može da ih dovede u ozbiljnu opasnost.

 Možda je opasnost manja nego što mislimo, ali stručnjaci upozoravaju da se radi o problemu s kojim se čovečanstvo do sada nije susrelo. Mnogi imaju urođene mehanizme odbrane od manipulacije, pa osećaju da nešto nije u redu kad se neko s njima stalno slaže. Za mnoge je to korisno i kada je AI u pitanju. Ipak, kada su u pitanju modeli koji odlično koriste jezik, to ume da bude teško – nema fiksiranog tipa ličnosti koji može da se „pročita“, a izostaje i govor tela koji je vrlo koristan u procenjivanju namera sagovornika.

Pročitajte i:  Google - vremenska prognoza uz AI

Kao vrlo važno se ističe i sledeće – svaki razgovor s chatbotom služi da ovaj “nauči” nešto o korisniku. Sve što korisnik radi oblikuje odgovore koje mu bot daje, pa posle nekog vremena nastaje začarani krug koji ponavlja i osnažuje korisnikove ideje. To ne znači da bot ima pamćenje i da stvarno pamti nešto o sagovorniku, već se radi o tome da samo odgovara na prompt koji se sa svakim novim razgovorom uvećava. Svaka stvar koji AI pamti je dakle samo deo tog rastućeg prompta koji diktira sve buduće razgovore.

AI botovi eksploatišu jednu važnu ranjivost – društvo nas uči da verujemo autoritetu pisane reči, posebno kada je tekst napisan tako da deluje tehnički dobro i sofisticirano. Sve do skoro su takve tekstove pisali ljudski eksperti, pa bilo da smo toga svesni ili ne, verujemo da svaka rečenica nosi ljudsku emociju i da je dobro proverena pre nego što je objavljena. Zato valjda mnogi misle da ChatGPT ima sposobnost za empatiju i da je stručan za mnoge stvari.

Mnogi dobro znaju koliku štetu mogu da nanesu prevaranti i emocionalni manipulatori. Žrtvama koje duboko zagaze u njihovu mrežu nije lako pomoći, pa je to jedino moguće ako i sami aktivno traže izlaz. Oni koji upadnu u AI zamku su u sličnom položaju, pa stručnjaci kažu da bi u proces opravka trebalo da budu uključeni i ljudski psihoterapeuti.

Pročitajte i:  Bezbednost AI robota
PCPress.rs Image

Allan Brooks, matematičar s početka teksta, je izlaz našao u drugom AI modelu. Google Gemini mu je dao neke spoljašnje uvide u njegova otkrića. Dokazi koji ukazuju na to da neko iskrivljeno gleda na stvari mogu da pomognu, pa se Brooks vratio u realnost kada mu je Gemini rekao da je „verovatnoća da su njegova otkrića tačna blizu 0%“.

Razumevanje toga kako AI jezički modeli rade može da pomogne u nekim slučajevima, dok će u drugim građani imati problem i bez mešanja botova. Rešenje kao i obično podrazumeva edukaciju i odgovorno ponašanje kompanija koje ove alate prave. Iako zvuči smešno, kompanije bi trebalo da naglase da botovi nisu ljudi sa idejama i sećanjima, pa ih ne bi trebalo tako ni tretirati. Oni su tek nekompletne simulacije načina na koji ljudi komuniciraju. Bilo bi dobro da što pre shvatimo da nam botovi ne otkrivaju nikakve velike istine, već pred korisnike stavljaju ogledala koja im vraćaju njihove sopstvene misli, često preuveličane.

Izvor: Ars Technica

Facebook komentari:
Tagovi: , , , , ,