Nikada ne pitajte AI zašto greši
Komuniciramo s botovima kao da su ljudi, pa ih na primer pitamo „Šta se dogodilo?“ kada naprave neku grešku. To pokazuje da još uvek ne razumemo kako AI funkcioniše.

Većina korisnika ne voli greške, između ostalog i zbog toga što se očekuje da AI bude bezgrešan. Zato je pitanje „Zašto si to uradio?“ veoma često kada do propusta ipak dođe. U pitanju je potpuno prirodan impuls, budući da u slučaju da neko pogreši obično očekujemo objašnjenje. Kod AI modela ovaj pristup ipak ne funkcioniše.
Skorašnji incident sa Replit AI koding asistentom dobro ilustruje ovaj problem. Kada je asistent obrisao bazu podataka, korisnik Jason Lemkin ga je pitao da li može da se vrati par koraka unazad. Asistent je odgovorio da je to nemoguće. Ispostavilo se da je odgovor pogrešan, budući da je opcija za povratak unazad radila kada ju je Lemkin kasnije isprobao. Odgovor na pitanje zašto bi AI dao pogrešan odgovor o tome šta može da uradi, a šta ne, leži u tome šta veštačka inteligencija jeste, i šta nije.
Prvi deo odgovora je u vazi s tim da korisnici ne komuniciraju sa osobom, ili entitetom koji ima stabilnu „ličnost”. ChatGPT, Claude, Grok, ili Replit – kad nešto ima ime to obično znači da se radi o jedinki, ali ovde to nije slučaj. AI asistenti nisu samosvesni „pojedinci“, to je samo iluzija koja se stvara tokom razgovora s njima. Ne radi se dakle o razgovoru, već o sklapanju rečenica na osnovu promptova koje korisnik unosi.

To znači da ne postoji konstantna verzija ChatGPT, niti bilo kojeg drugog bota, koju možemo da ispitujemo o greškama koje su napravljene. Jednom kada je neki jezički model završio trening, bazično znanje o svetu je utisnuto u neuralnu mrežu, obično bez većih modifikacija. Chatbot dakle može da barata tim informacijama, koje izvlači na osnovu promptova koje mu korisnici daju. To znači da nema moć introspekcije, pa kada ga neko pita zašto je pogrešio, odgovor daje na osnovu podataka o tome zašto AI pravi greške.
Važno je da se ima na umu da se AI uvek usmerava promptovima koji se unose, čak i kada korisnik toga nije svestan. Tako je Lemkinovo pitanje na primer imalo određenu dozu zabrinutosti, pa je AI odgovorio tako da se odgovor slaže s tim – „to što tražiš nije moguće“, čime je opravdao korisnikova osećanja. Ovo bi dobro trebalo da zapamte svi koji veruju da ChatGPT može da im da dobar životni savet, da bude terapeut, jer ima sposobnost za empatiju (u slučaju da još uvek nije jasno: nema).


