Zabrinjavajuće: Ljudi veruju da su AI botovi empatični
Sve češće mogu da se pročitaju ili čuju stavovi u okviru kojih građani tvrde da je „njihov“ ChatGPT sposobniji za empatiju od svih ljudi koje poznaju. Ovo zabrinjava, ne samo zbog toga što ljudi ne znaju kako empatija funkcioniše, već i zato što je upotreba botova za rešavanje problema koji se inače rešavaju na psihoterapiji posebno opasna.

Još se 2021. godine pisalo o tome da je jedna od osnovnih prepreka za upotrebu veštačke inteligencije u medicini to što AI nije sposoban za empatiju. Uprkos tome što mnogi tvrde da nisu ni ljudi, to nije tačno. Nevolja je u tome što kada govore o empatiji neki zapravo misle na bezuslovnu ljubav, a empatija to nije niti bi smela da bude. To posebno važi za psihoterapiju – oni koji od terapeuta očekuju podršku i prijateljsku ljubav, nisu tu iz pravih razloga.
Prema definiciji, empatija, odnosno sposobnost da razumemo i podelimo osećanja drugih, omogućava nam da vidimo stvari iz perspektive drugog, a ne samo iz naše sopstvene. To je ključna veština koja omogućava društvene i profesionalne odnose, razvija samosvest i doprinosi pravednom i mirnom svetu. Budući da AI nema ni sopstvenu perspektivu (modeli se treniraju uz pomoć setova podataka koje unose ljudi), teško da mogu da se stave u tuđu poziciju.
Odakle onda utisak da su AI chatbot-ovi puni razumevanja? Stručnjaci kažu da se radi o jezičkom triku, dakle o veštačkoj empatiji. Ljudi su skloni tome da ljudske osobine pripisuju svemu i svačemu, a botovi kao što su ChatGPT, Gemini i Copilot to ohrabruju tako što imitiraju način na koji komuniciraju ljudska bića – koriste poznate reči i rečenice, i na taj način komuniciraju šablonima koji su ljudima poznati. Zahvaljujući tome mogu da deluju kao da su duhoviti, čak i empatični.

Empatija ipak nije jezički šablon. Kada AI bot koristi lične zamenice, zapravo izvodi jedan trik – kada mu korisnik postavi pitanje on ispravno koristi „ja“ i „ti“ (čak i kad zamenica nije direktno napisana, jasno je da se koristi), pa sebe stavlja u ulogu savetnika koji pomaže u rešavanju problema. Što je problem osetljiviji, to je utisak da je bot empatičan veći.
„ChatGPT empatija“ potiče od algoritma i nije stvarna. Komunikacija sa ne-ljudskim entitetima koji simuliraju identitete i emocije bi mogla da ima dugoročne posledice, što je posebno opasno za korisnike koji traže pomoć u vrlo teškim situacijama. Što AI bude više napredovao, to će biti sve teže da se razgovori s njim odvoje od komunikacije s običnim ljudima.
Uverenje da su botovi sposobni za osećanja stvara konfuziju. Nisu, i teško da će ikada biti (a i ako budu, to neće biti sutra). ChatGPT nije vaš prijatelj, a nikako nije vaš terapeut – legitimno je da se u teškim situacijama koriste alatke koje ne nanose direktnu štetu, a donose olakšanje. To olakšanje ipak nije terapija – botovi daju odgovore i nude rešenja, a ljudski terapeut klijentu pomaže da do rešenja dođe sam. Samo je to terapija, i jedino se tako problemi rešavaju dugoročno.