Kako istražiti kada robot izazove nesreću
Roboti se sve više pojavljuju u našem svakodnevnom životu. Oni mogu biti neverovatno korisni (bionički udovi, robotske kosilice ili roboti koji dostavljaju obroke ljudima u karantinu) ili samo zabavni (robotski psi, igračke za ples i akrobatski dronovi).
Ugradnja ‘etičkih crnih kutija’ u robote može nam pomoći da istražimo incidente
Mašta je možda jedino ograničenje onoga što će roboti moći da rade u budućnosti. Međutim, šta se dešava kada roboti ne rade ono što mi želimo – ili to rade na način koji nanosi štetu? Na primer, šta se dešava ako je bionička ruka uključena u saobraćajnu nesreću? Nesreće s robotima postaju zabrinjavajuće iz dva razloga. Prvo, povećanje broja robota će prirodno dovesti do povećanja broja nesreća u koje su oni uključeni.
Drugo, postajemo sve bolji u izgradnji složenijih robota. Kada je robot složeniji, teže je razumeti zašto je nešto pošlo po zlu. Većina robota radi na različitim oblicima veštačke inteligencije (AI). AI je sposobna da donosi odluke poput ljudi. Ove odluke mogu biti različite, od identifikacije objekta do tumačenja govora. AI je obučena da donosi ove odluke za robota na osnovu informacija iz ogromnih skupova podataka, a zatim se testira na tačnost (koliko dobro rade ono što mi želimo) pre nego što postave zadatak. AI se može dizajnirati na različite načine.
Kao primer, razmotrite robotski usisivač – može biti dizajniran tako da kad god udari o površinu, preusmeri se u nasumičnom pravcu. Nasuprot tome, mogao bi biti dizajniran tako da mapira svoju okolinu kako bi pronašao prepreke, pokrio sve površine i vratio se na bazu za punjenje. Dok prvi usisivač uzima ulaz od svojih senzora, drugi prati taj ulaz u interni sistem mapiranja. U oba slučaja, AI uzima informacije i donosi odluku oko njih. Što je robot sposoban za složenije stvari, to ima više vrsta informacija za tumačenje. Takođe može biti procena više izvora jedne vrste podataka, kao što su, u slučaju zvučnih podataka, glas uživo, radio i vetar.
Kako roboti postaju složeniji i sposobni su da deluju na različite informacije, postaje još važnije utvrditi na koje informacije je robot delovao, posebno kada je prouzrokovana šteta. Kao i sa svakim proizvodom, stvari mogu i idu naopako sa robotima. Ponekad je ovo interni problem, kao što je robot koji ne prepoznaje glasovnu komandu. Ponekad je spoljašnji – senzor robota je oštećen. A ponekad može biti i jedno i drugo, kao što je robot koji nije dizajniran da radi na tepisima i da se „sapliće“. Istrage o nesreći robota moraju sagledati sve potencijalne uzroke.
Iako može biti nezgodno ako se robot ošteti kada nešto krene naopako, mi smo mnogo više zabrinuti kada robot nanese štetu ili ne uspe da ublaži štetu osobi. Na primer, ako bionička ruka ne uspe da uhvati topli napitak, i prospe ga na vlasnika; ili ako robot za negu ne uspe da registruje poziv u pomoć kada korisnik padne. Zašto se istraga udesa robota razlikuje od istraživanja nesreća ljudi? Naime, roboti nemaju motive i zato želimo da znamo zašto je robot doneo odluku na osnovu određenog skupa inputa koje je imao. U primeru bioničke ruke, da li je to bila pogrešna komunikacija između korisnika i ruke? Da li je robot pomešao više signala? Neočekivano se zaključao?
U primeru pada osobe, da li robot nije mogao da „čuje“ poziv upomoć zbog glasnog ventilatora? Ili je imao problema sa tumačenjem govora korisnika? Istraga nesreće sa robotom ima ključnu prednost u odnosu na istragu nesreće kod ljudi: postoji potencijal za ugrađenog svedoka. Komercijalni avioni imaju sličnog svedoka: crnu kutiju, napravljenu da izdrži avionske nesreće i pruži informacije o tome zašto je došlo do pada. Ove informacije su neverovatno dragocene ne samo za razumevanje incidenata, već i za sprečavanje da se oni ponove. Kao deo RoboTIPS-a, projekta koji se fokusira na odgovorne inovacije za društvene robote (robote koji komuniciraju sa ljudima), napravljena je ono što zovemo etička crna kutija: interni zapis robotovih unosa i odgovarajućih akcija.
Etička crna kutija je dizajnirana za svaki tip robota u kome živi i napravljena je da beleži sve informacije na koje robot deluje. To može biti glasovna, vizuelna ili čak moždana aktivnost. Cilj je da etička crna kutija postane standard u robotima svih proizvođača i aplikacija. Dok podatke koje beleži etička crna kutija i dalje treba tumačiti u slučaju nesreće, posedovanje ovih podataka na prvom mestu je ključno za omogućavanje istrage. Proces istrage nudi šansu da se osigura da se iste greške ne dogode dvaput. Etička crna kutija je način ne samo za pravljenje boljih robota, već i za odgovorno inoviranje u uzbudljivom i dinamičnom polju.
Izvor: Thenextweb