NHTSA zaključila istragu o Teslinom Autopilotu
Organizacija je otvorila novo ispitivanje o efikasnosti nedavnih softverskih popravki.
Softver nije prioritetizovao pažnju vozača
Nacionalna uprava za saobraćajnu bezbednost na auto-putevima (NHTSA) je zaključila istragu o Teslinom Autopilot sistemu pomoći vozaču nakon pregleda stotina nesreća. Tu su uključeni i 13 fatalnih slučajeva koji su doveli do 14 smrtnih slučajeva. Organizacija je utvrdila da su ove nesreće bile rezultat pogrešne upotrebe sistema od strane vozača.
Međutim, NHTSA je takođe otkrila da “slab sistem angažovanja vozača Tesle nije bio odgovarajući za dopuštajuće operativne sposobnosti Autopilota.” Drugim rečima, softver nije prioritetizovao pažnju vozača. Putnici koji su koristili Autopilot ili kompanijsku tehnologiju potpuno samostalne vožnje “nisu bili dovoljno angažovani”. Tesla “nije adekvatno osigurala da vozači održe pažnju na vožnju.”
Organizacija je istražila skoro 1.000 nesreća od januara 2018. godine do avgusta 2023. godine, uzimajući u obzir ukupno 29 smrtnih slučajeva. NHTSA je utvrdila da je “nedostajalo podataka za procenu” za oko polovine ovih nesreća. U nekim slučajevima, druga strana je bila kriva ili vozači Tesle nisu koristili Autopilot sistem.
Najozbiljnije je bilo 211 nesreća u kojima je “Tesla udarila vozilo ili prepreku na svom putu”. Ove nesreće su često bile povezane sa Autopilotom ili potpuno samostalnom vožnjom. Ovi incidenti doveli su do 14 smrtnih slučajeva i 49 ozbiljnih povreda. Agencija je otkrila da su vozači imali dovoljno vremena da reaguju, ali nisu, u 78 ovih incidenata. Ovi vozači nisu uspeli da koče ili skrenu kako bi izbegli opasnost, iako su imali barem pet sekundi da reaguju.
Pritužbe protiv softvera
NHTSA navodi da bi vozači jednostavno postajali previše bezbrižni, pretpostavljajući da će sistem reagovati na svaku opasnost. Kada je došlo vreme za reakciju, bilo je kasno. “Nesreće u kojima vozač nije pokušao nikakvu ili je kasno pokušao evazivnu akciju pronađene su u svim verzijama hardvera Tesle i okolnostima nesreće,” navodi organizacija. Disbalans između očekivanja vozača i operativnih sposobnosti Autopilota rezultirao je “kritičnom sigurnosnom prazninom” koja je dovela do “predvidive zloupotrebe i izbegnutih nesreća.”
NHTSA je takođe zamerila brendiranje Autopilota, nazivajući ga obmanjujućim i sugerišući da omogućava vozačima da pretpostave da softver ima potpunu kontrolu. S druge strane, konkurentne kompanije obično koriste brendiranje sa rečima poput “pomoć vozaču.” Autopilot označava, pa, autonomnog pilota.
“Praznine u Teslinim podacima”
Tesla, s druge strane, navodi da upozorava kupce da moraju obratiti pažnju dok koriste Autopilot i potpuno samostalnu vožnju. Kompanija tvrdi da softver ima redovne indikatore koji podsećaju vozače da drže ruke na volanu i oči na putu. NHTSA i druge bezbednosne grupe su navele da ovi upozorenja nisu dovoljna i da su “bila nedovoljna da spreče zloupotrebu.” Uprkos ovim izjavama bezbednosnih grupa, izvršni direktor Elon Musk nedavno je obećao da će kompanija nastaviti “raditi punom snagom za autonomiju.”
Nalazi mogu predstavljati samo mali deo stvarnog broja nesreća i incidenata povezanih sa Autopilotom i Potpuno samostalnom vožnjom. NHTSA je navela da “praznine u Teslinim telematskim podacima stvaraju nesigurnost u vezi sa stvarnom stopom u kojoj su vozila koja koriste Autopilot uključena u nesreće.” Ovo znači da Tesla dobija podatke samo o određenim vrstama nesreća. Pri tome NHTSA tvrdi da kompanija prikuplja podatke o oko 18 odsto nesreća prijavljenih policiji.
Sa obzirom na sve to, organizacija je otvorila još jednu istragu o Tesli. Ova istražuje nedavni softverski popravak preko OTA-a izdat u decembru nakon što su dva miliona vozila povučena. NHTSA će proceniti da li je popravak Autopilota koji je Tesla implementirao dovoljno efikasan.
Izvor: Engadget