Istraživači prevarili Tesla Autopilot da skrene u pogrešnu traku
Sigurnosni istraživači su sproveli jednostavan eksperiment čiji rezultati pokazuju da bi Tesla Autopilot u određenim uslovima mogao da skrene u pogrešnu traku, te krene u susret nadolazećim automobilima, i tako ih sve dovede u opasnost.
Ranjivost nije dokazana tako što je sistem automobila hakovan, već upotrebom naizgled bezazlenih nalepnica koje uspevaju da prevare Enhanced Autopilot Tesla automobila Model S 75 da detektuje i prati lažne promene u okviru trake kojom se kreće. Enhanced Autopilot podržava različite akcije, uključujući centriranje automobila u traci kojom se kreće, autonomno parkiranje, te automatsko menjanje trake uz potvrdu vozača. Sistem se oslanja na kamere, ultrasonične senzore i radar, a kada je u pitanju prikupljanje informacija o okruženju, preprekama, terenu i promenama u okviru traka na putu. Informacije se potom otpremaju u kompjuter, te automobil na osnovu njih donosi odluke u realnom vremenu.
Bezbednosni eksperti su sproveli eksperiment u okviru kojeg se pratilo kako se Autopilot ponaša kada se promene uslovi na putu, te su u okviru jednog dela korišćene i nalepnice koje su se postavljale na put kojim se vozilo kretalo, a tako da vozač nije mogao da ih vidi. Algoritmi mašinskog učenja su ih ipak registrovali, te doživljavali kao informaciju da traka kojom se kreću skreće u levo, te je vozilo kretalo u tom smeru, a u susret automobilima koji su dolazili iz suprotnog smera. Ranjivost se pojavila u okviru detect_and_track opcije kojom se detektuju trake na putu, i uz pomoć kojih se ažurira interna mapa iz koje se šalju informacije upravljaču.
Mogućnost uticanja na „ponašanje“ autonomnih automobila uz pomoć promena u okruženju nije ništa novo, te je još 2017. dokazano da promene na putu izazivaju određene probleme, a poenta ovakvih eksperimenata je da se prepoznaju sve moguće ranjivosti, te da se sistem ažurira tako da se broj mogućih grešaka svede na minimum.
Izvor: Ars Technica