Naučnici pustili AI na slobodu
Veliki jezički modeli na kojima se temelje AI botovi kao što je ChatGPT umeju da razgovaraju s korisnicima, ali je problem u tome što zapravo ne razumeju reči koje koriste. Koncept je jedno, a stvaran svet nešto sasvim drugo.
Veštačka inteligencija je sve do sada mogla da uči iz podataka o stvarnom svetu, ali ne iz stvarnosti. Ljudi reči povezuju sa iskustvima, pa lakše uče šta na primer znači „vruće“, a šta „hladno“. AI bi mogao da krene istim putem, a zahvaljujući naučnicima sa Tehnološkog instituta u Okinawi.
Oni su napravili AI model inspirisan ljudskim mozgom koji se sastoji od više neuralnih mreža. Veoma je ograničen – može da nauči tek pet imenica i osam glagola, ali ima veliku prednost u odnosu na druge modele – nije samo naučio reči, već je na primerima iz stvarnog sveta „razumeo“ šta stvarno znače.
Inspiracija za ovaj model je došla iz razvojne psihologije i toga kako novorođenčad uči i razvija jezik. Ideja da AI modeli uče kao bebe nije nova – jednom su naučnici pokušali da veštačku inteligenciju uče preko GoPro uređaja koji je bio prikačen za pravu ljudsku bebu. Problem je bio što bebe rade mnogo više od prostog učenja jezika – dodiruju stvari, grabe ih, povezuju s rečima koje čuju. AI to nije mogao sve do sada.
Početna ideja za projekat iz Okinawe je bila ta da ljudski mozak konstantno predviđa šta bi moglo da se dogodi. Predviđanja pravi na osnovu unutrašnjih iskustava, a ispravlja ih u skladu sa onim što se događa. Mi dakle prvo mislimo o nekoj akciji uz pomoć koje možemo da ostvarimo cilj, a onda plan ažuriramo na osnovu onoga što se dešava tokom izvođenja. Tako radimo sve – od prinošenja šolje kafe ustima, do pronalaženja posla iz snova.
Sve pomenuto je povezano s jezikom. Naučnici su još pre utvrdili da se delovi mozga zaduženi za motorne radnje aktiviraju i kada ispitanici samo slušaju rečenice koje opisuju neku fizičku akciju. Da bi AI sve to razumeo model je smešten u robota, a različite neuralne mreže su zadužene za različite stvari – jedna obrađuje slike koje beleži kamera, druga je zadužena za određivanje položaja koji robot zauzima i doživljaj pokreta (propriocepcija). Tako robot može da se fokusira na izabrani objekat i izdvoji ga iz okruženja. Onda na scenu stupa treća neuralna mreža zadužena za jezik, a tako što tumači komande koje su u vezi s druge dve mreže – na primer „pomeri crveni objekat udesno“.
AI model ovako „stvarno“ uči. Uči na primerima iz sveta, pa reči prestaju da budu samo ideje, već postaju stvarna iskustva. Ostaje da se vidi kuda će nas to odvesti.
Izvor: Ars Technica