Zakon samousaglašenosti smanjio troškove veštačke inteligencije
U časopisu Science Advances, 20. oktobra je objavljeno zajedničko istraživanje timova Instituta za automatizaciju i CEBSIT, Kineske akademije nauka. Tim je otkrio da tzv. self-backpropagation (samousaglašenost) – oblik zakonitosti sinaptičke plastičnosti u prirodnim neuralnim mrežama na mezoskali, može doprineti većoj tačnosti performansi i smanjenju računarskih troškova SNN-a (spajking neuralnih mreža) i ANN-a (veštačkih neuralnih mreža).
Šta ovo znači?
U apstraktu rada navodi se važan problem veštačke inteligencije: u veštačkim neuronskim mrežama ne fukncionišu mnoge zakonitosti koji važe u biološkim nervnim sistemima (tj. kod prave sinaptičke plastičnosti). Biološka osnova plastičnosti podrazumeva da je SBP (self-backpropagation ili, kako se prevodi- samousaglašenost) uzrokovana brzom emisijom molekularnih signala kroz aksone. Zbog ovog svojstva, biološke neuralne mreže tako efikasno i fleksibilno “uče”.
Drugi izazov, kada su u pitanju BP algoritmi veštačke inteligencije, proizlazi iz korišćenja globalne strategije za optimizaciju (koja veštačkoj inteligenciji omogućuje dobre performanse). Njeno korišćenje kompjuterske troškove čini veoma visokim.
Istraživači su pokazali da uključivanje nelokalne karakteristike sinaptičke plastičnosti, koja postoji u prirodnim neuralnim mrežama, može doprineti smanjenju računarskih troškova. Zato su predložili SBP u vidu troslojnog SNN. Posledica ove inovacije jeste povećana tačnost mrežnih performansi u tri standardna zadatka, MNIST, NETtalk i DvsGesture ali i smanjenje računarskih troškova u toku učenja.
Izvor: techxplore, ScienceAdvances