Nevolje s halucinacijama: Kad ChatGPT piše gluposti

Sve je više onih koji se žale da ChatGPT halucinira, a grupa istraživača tvrdi da su u pravu – bot stvarno piše gluposti.

PCPress.rs Image

U istraživanju koje je objavljeno u magazinu Ethics and Information Technology, grupa istraživača s Univerziteta u Glazgovu  između ostalog kaže da „halucinacije“ nisu odgovarajući naziv za greške koje ChatGPT pravi. Budući da se halucinacijama naziva svako uverenje da je tu nešto čega uopšte nema, upotreba ove reči u opisivanju veštačke inteligencije može da bude samo metaforička. „Halucinacija“ tako nije pravi naziv za greške, pa istraživači preporučuju drugi – „pisanje gluposti“ („bullshit“).

Ističe se da je „pisanje gluposti“ prikladnije zato što ChatGPT ne brine o tome da li su njegovi odgovori tačni ili netačni. Istraživači u svom radu navode dva tipa pisanja gluposti: „teške gluposti“ su one koje za cilj imaju da dezinformišu korisnika i da ga navedu na pogrešan put, dok su „lakše gluposti“ one koje se pišu bez bilo kakve zadnje namere. Budući da ChatGPT ne može namerno da nudi pogrešne odgovore, istraživači kažu da greške koje pravi pripadaju „lakšim glupostima“.

Pročitajte i:  Student uhapšen zato što je koristio AI za varanje na ispitima

Na kraju se ističe da chatbot-ovi imaju jedan cilj – da proizvedu tekst koji liči na nešto što bi napisalo ljudsko biće. Istraživači podsećaju na advokata koji je koristio ChatGPT u pisanju tužbe. Pred sudijom je izgovorio brojne gluposti, ali ne zato što je ChatGPT hteo da mu zagorča život, već zato što je bot na zahtev odgovorio glupostima i netačnim informacijama.

„Halucinacije“ ili „gluposti“ će vremenom praviti sve veće probleme, budući da broj onih koji se oslanjaju na ChatGPT raste. Korisnici sami odlučuju o tome kako će koristiti AI pomagače, a odluke ne donose na osnovu dubokog razumevanja kako chatbot-ovi rade, već na osnovu onoga što su čuli i pročitali o njihovim sposobnostima. Nazivanje njihovih grešaka „halucinacijama“ stvara još veću štetu, jer se stvara utisak da chatbot-ovi pokušavaju da razumeju ono što se od njih traži, pa usput prave greške. To je daleko od istine, budući da AI (bar za sada) ne pokušava da razume bilo šta, već prosto reprodukuje ono što je naučio od ljudi.

Pročitajte i:  Sam Altman i drugi tehnološki lideri pridružuju se federalnom odboru za sigurnost AI

Izvor: Futurism

Facebook komentari:

Leave a Reply

Your email address will not be published. Required fields are marked *