Dezinformacije i frustracije: Evo zašto AI izmišlja
Jedno od najvećih pitanja o veštačkoj inteligenciji je zašto veliki jezički modeli imaju tendenciju da iskrivljuju informacije, da haluciniraju i izmišljaju? Umesto da odgovore „Ne znam“, neki AI botovi pričaju i pišu ono što nije tačno. Možda u tome najviše podsećaju na ljude.

Novo istraživanje Claude AI asistenta koje su sproveli eksperti iz startapa Anthropic donekle rasvetljava problem halucinacija, a radi se o razlici u situacijama kada neki jezički model odbije da odgovori i kada da odgovor, pa makar i netačan. Razumevanje ovog problema još uvek nije potpuno, a u istraživanju je praćen rad veštačkih neurona koji se aktiviraju tokom davanja odgovora.
Na ovaj način su dobijeni uvidi u to kako Claude „misli“ na različitim jezicima. Tu je važno i to što veliki jezički modeli u svojoj osnovi imaju sposobnost za predviđanje teksta (na tome je nastao i auto-complete), što je korisno kada se radi o nečemu standardnom, običnom, o informacijama koje su se našle u setovima podataka na kojima je AI treniran. Ali kada su u pitanju manje obične, opskurnije teme o kojima nema mnogo podataka, AI počne da „nagađa“.

Fina podešavanja mogu da ublaže ovaj problem, i da usmere AI model ka tome da odbije da da neki odgovor kada nije siguran u njegovu tačnost, to jest kada su podaci kojima raspolaže oskudni. To što je problem zahvaljujući istraživanjima malo jasniji pomaže da se radi na njegovom rešavanju, ali iz Anthropic kažu da su trenutno u stanju da ispitaju tek delić onoga što Claude procesira.
Potrebno je i po nekoliko sati da ljudi razumeju stvari koje su u vezi i s vrlo kratkim promptovima (pitanjima i zahtevima koji se sastoje od tek desetak reči), a svi se nadaju da je to prvi korak ka boljem razumevanju AI halucinacija, koje bi jednog dana moglo da dovede i do rešenje.


