Argument oko toga hoće li Tesla FSD pregaziti dijete ili lažno dijete promašuje bit

A nedavni videozapis od TesleTSLA
- kritičar Dan O'Dowd iz “Dawn Projecta” prikazuje testnu stazu s cestom napravljenom od čunjeva. Tamo se vozač koji koristi Teslin FSD prototip vozi prema dječjoj lutki i udari je. Tvrdi se da Telsa FSD ne koči pouzdano za djecu. Kritičari O'Dowda tvrdili su da je video krivotvoren ili loše kreiran, a neki su napravili vlastite demonstracije, uključujući, na žalost svih, izvođenje testa sa stvarnom djecom “dobrovoljcima” uživo. Malo je tko razmatrao pitanje treba li prototip poput Tesle FSD pouzdano kočiti za djecu, što je zaista zanimljivo pitanje.

O'Dowd je često pisao da želi zabranu Tesla FSD-a. Prethodno sam pratio njegovu kampanju, a nedavno se natjecao za nominaciju za kalifornijski Senat isključivo kako bi pokrenuo reklame protiv Tesla FSD kampanje. Naravno, razbjesnio je Elona Muska i glasnu pro-Teslinu zajednicu. Zbog toga je odmah uslijedio sparing. Izvorni video s gornjom vezom nije pokazao FSD aktiviran, iako su kasnija izdanja pokazala da jest. Neki su sugerirali da teško čitljive slike na ekranu pokazuju da vozač drži pritisnutu papučicu. Drugi podaci pokazuju da automobil usporava ili izdaje upozorenja, a raspravljalo se o tome koliko je demonstracija stvarna.

OGLAS

Demonstracije su odabrane kao provokativne, jer ništa nije strašnije od automobila koji udaraju djecu. Troje djece pogine u prometnim nesrećama svaki dan u SAD-u, a svake godine automobili ubiju oko 3 djece pješaka. Za mnoge je reakcija da nikakva tehnologija koja bi ikada pregazila dijete nije prihvatljiva. NHTHT
SA je započeo istragu o implementaciji Tesla Autopilota (koji je objavljeni proizvod) i počinje razmatrati FSD prototip. Drugi, poput Ralpha Nadera, također su pozvali da se FSD prototip skloni s ceste. Nakon što je vrlo mali broj ljudi ponovio test sa stvarnom djecom, NHTSA je izdala upozorenje da se to ne radi, a Youtube je povukao video snimke ljudi koji to rade. Tesla je navodno tražila da se uklone i videosnimke njihovog udara automobila u testnu lutku. Washington Post izvještava da je vidio Teslino pismo o prekidu i odustajanju.

Ovo pitanje je vrlo složeno, i kao što nije previše neobično, nitko ga ne shvaća točno. Sustav FSD, iako se naziva beta, točnije je nazvati prototipom. Samovozeći prototipovi (i beta verzije) doista trebaju veliku količinu testiranja na cesti prema mišljenju većine programera, a svaki tim to radi, s ljudskim "sigurnosnim vozačima" koji nadziru sustav i redovito interveniraju kada pogriješi kako bi spriječili incidente. Tesla je neobičan po tome što dopušta običnim kupcima da se uključe u ovo testiranje, dok sve druge tvrtke imaju zaposlenike koji s određenom razinom obuke obavljaju ovaj zadatak i obično imaju 2 zaposlenika po vozilu.

Prototipovi, po svojoj prirodi, ne uspijevaju, uključujući važne stvari poput zaustavljanja pješaka na cesti. Svaki tim, od najboljih poput Wayma do najgorih, puštao je vozila na cestu koja bi redovito učinila nešto ozbiljno loše osim intervencija, a većina smatra da je testiranje takvih vozila u ranoj fazi bilo i još uvijek je neophodno kako bi se napredovalo i na kraju postavilo automobile. Jednom postavljeni, automobili će biti puno bolje kvalitete i spašavat će živote - mnogo njih - tako da svi žele da se to postavljanje dogodi što je prije moguće, ali postoje mnoga pitanja za raspravu o tome kako ćemo doći do te točke i kada smo je dosegli to.

OGLAS

Pomoć vozaču nasuprot samostalnoj vožnji

Uz pitanje je li Teslina upotreba kupaca za testiranje svog prototipa dobra ideja, mnoga se pitanja vrte oko razlike između sustava za pomoć vozaču, koji uključuju čovjeka koji je potpuno uključen u vožnju, ali nadzire sustav, a ne fizički se kreće kontrole i sustavi samostalne vožnje, gdje nije potreban ljudski nadzor (i doista, vozilo može raditi bez ikoga u njemu.)

Mnogi poznavatelji industrije smatraju da su to dvije prilično različite stvari i da je NHTSA pogriješila što ih je proglasila samo dvije različite "razine" tehnologije automatizacije. Sterling Anderson, suosnivač Aurora self-drivinga, smatra da je prijelaz s vozačke asistencije (ili ADAS, za naprednu vozačku pomoć) na samostalnu vožnju poput pokušaja stizanja na Mjesec izgradnjom viših ljestava.

Prvi veliki napredni sustav pomoći vozaču koji je omogućio osobi da makne noge s pedala bio je tempomat, posebno adaptivni tempomat. Kasnije se pojavilo praćenje vozne trake koje vam je omogućilo da maknete ruke s volana, a uskoro su ta dva spojena u proizvodima poput Teslinog "Autopilota". Kao ADAS (driver assist) alati namijenjeni su za korištenje s punom pažnjom.

OGLAS

Iako u početku nisu svi vjerovali, danas je opći zaključak da ovi sustavi rade i ne stvaraju opasnost na cesti. Ljudi su u početku sumnjali čak iu osnovni tempomat, ali je ubrzo postao vrlo uobičajena značajka na automobilima.

Tesla Autopilot potaknuo je nova pitanja iz niza razloga, ali najzanimljivije pitanje vrti se oko činjenice da je očigledno superioran u funkcionalnosti u odnosu na ranije proizvode, uključujući jednostavnije tempomate — no ta bi ga superiornost zapravo mogla učiniti opasnijim, a time i inferiornijim. Pojavljuje se neobičan paradoks, gdje što je sustav bolji, rezultat bi mogao biti lošiji, jer superiorni sustav izaziva "samodovoljstvo automatizacije" gdje vozač koji ga nadzire obraća manje pažnje na cestu. (Neki također vjeruju da Teslin nazivi "Autopilot" i FSD potiču to samozadovoljstvo, a to čini i javna poruka oko ovih proizvoda.)

Ovo nije dobar paradoks. Želimo razviti bolje sustave, ali ako se sustav sveukupno pogoršava dok ga poboljšavate, puno je teže dobiti stvarno dobre sustave dok putujete kroz dolinu opasnosti u kojoj stvari postaju gore prije nego što postanu bolje. Danas standardnom tempomatu nikada ne bismo zamjerili činjenicu da će udariti dijete ili proći kroz crveno svjetlo — ti su sustavi bili mnogo jednostavniji i uopće nisu imali mogućnost izbjegavanja tih grešaka. Ali mnogi žele zamjeriti mnogo superiornijem sustavu koji se zaustavlja na većini prepreka jer se ne zaustavlja za 100% — iako nijedan sustav nikada neće biti tako savršen da izbjegne 100% pogrešaka, i iako ljudi također neće biti savršeni.

OGLAS

Sudjelovao sam u izradi nacrta prvih zakona o testiranju samovožnje u svijetu, u Nevadi i Kaliforniji. Igrači su se složili da bi trebala postojati neka osnovna pravila o tome kako provoditi testiranje na cestama (prethodna pravila to nisu zabranjivala, budući da naravno nitko nikada nije razmišljao o tome.) U isto vrijeme, proizvođači automobila, koji prodaju ADAS alate, učinili su ne žele da njihovi ADAS automobili podliježu propisima o ispitivanju samostalne vožnje, pa je rad ADAS-a izdvojen jer nije obuhvaćen tim propisima.

U Kaliforniji je to posebno stvorilo otvoreno pitanje. Sva testiranja samostalne vožnje (uz nekoliko nedavnih iznimaka) provode se uz nadzor sigurnog vozača. Na taj način vrlo je poput vožnje ADAS automobila. Zakon nije bio jasan u pogledu razlike što je stvorilo neke zanimljive situacije. Anthony Levandowski, koji je također sudjelovao u izradi propisa, kasnije je bio na čelu UberaUber
ATG. Izjavio je da, budući da su svi njihovi automobili u to vrijeme radili samo sa sigurnosnim vozačem, ovo je bio ADAS, a Uber nije trebao slijediti propise o testiranju samovožnje. Kalifornijski DMV rekao je ne, da prema ovoj logici nitko nije testirao samovožnju, a to nije bila namjera zakona. Rekli su Uberu da se trebaju registrirati kao samovozeća testna vozila ili će povući registarske pločice Uberovih automobila koristeći svoje posebne ovlasti. Uber je to poslušao.

OGLAS

DMV je zauzeo pristup da ako pokušavate napraviti samovozeći sustav, iako je bio rano nedovršen kojem je bio potreban nadzor i uvijek je bio pod nadzorom, trebali biste se smatrati tvrtkom za testiranje samovozećih vozila koja je regulirana pravilima.

Unatoč tome, Tesla nastavlja s istim pristupom. Budući da Tesla definitivno ima proizvod ADAS, oni nikada ne prijavljuju državi testiranje samovožnje. Do sada je DMV ovo zanemario — čak i testiranje Teslinog FSD-a od strane Teslinih zaposlenika koje je jako teško razlikovati od onoga u čemu su spriječili Uber. DMV bi to mogao regulirati. Ali što je s korisničkom upotrebom, gdje je službeno (ako pročitate sitni tisak i zanemarite naziv) alat za pomoć vozaču?

Ali čini se da djeluje

Glavno rješenje za to bili su načini da se osigura visoka pažnja nadzornika. Za to postoje različite tehnike, uključujući praćenje vozača na različite načine i prigovaranje ako ne obraća pozornost, ili kao što je navedeno, obučeni profesionalni vozači ili čak tim njih koji višestruko gleda na cestu. Desetljećima smo obučavali vozače tinejdžerske dobi u autoškolama tako što smo imali instruktora koji može uhvatiti volan i ima vlastitu kočnicu da zaustavi automobil, i taj je sustav vrlo dobro funkcionirao.

OGLAS

Čvrst zaključak do sada je da ovo djeluje. Sigurnosna evidencija velikih tvrtki za samovozenje poput Wayma je uzorna. Waymo je izvijestio o više od 20 milijuna milja testiranja sa sigurnosnim vozačima u 2021., i u tom vremenu je imao možda 2 nesreće zbog krivnje. Ljudska bića će u tom vremenskom razdoblju u prosjeku imati blizu 40 nesreća. Baš kao što učenici vožnje s instruktorima vožnje rade mnogo bolje od vozača sa svježim dozvolom, sustav nadzora očito radi i ta vozila zapravo stvaraju manji rizik za javnost nego što bi to učinila slična vožnja običnih ljudi.

Barem u SAD-u, ako nitko nije ozlijeđen - ili barem ako je razina rizika niža od one u običnoj vožnji - aktivnost općenito ne bi bila regulirana. Pristup SAD-a mnogo je popustljiviji — ne morate dokazivati ​​da je ono što radite sigurno, ali ako se pokaže da nije sigurno, mogli biste biti zaustavljeni i proglašeni odgovornim za bilo kakvu štetu koju ste prouzročili. Neke druge zemlje zahtijevale bi od regulatora da unaprijed odluče je li nešto sigurno, mnogo višu granicu koja je mnogo manje pogodna za inovacije.

Naravno, u jednom poznatom slučaju pristup sigurnosnog vozača imao je smrtni ishod, kada je vozilo Uber ATG-a usmrtilo pješaka u Arizoni. Istraga NTSB-a i kasniji sudski slučajevi utvrdili su da je sigurnosni vozač bio nemaran (gledala je televiziju umjesto da radi svoj posao), iako je Uber također bio kriv zbog loše kulture upravljanja svojim sigurnosnim vozačima što je pridonijelo ovoj pogrešci. Važan zaključak je međutim da Sustav sigurnosnog vozača radi i sam ne izlaže javnost nepotrebnom riziku, iako je očito moguće da vozači za ljudsku sigurnost budu nemarni i uzrokuju visok rizik.

OGLAS

To je sustav s obučenim plaćenim vozačima. Tesla ide dalje i ima obične kupce da obave posao. Bilo je brojnih incidenata u kojima su Teslini vozači očito bili nemarni u nadzoru proizvoda Autopilot, te su se dogodile nesreće, uključujući i one sa smrtnim ishodom. Međutim, Tesla automobili voze mnogo više milja s Autopilotom nego bilo koji samovozeći tim, tako da prisutnost negativnih, pa čak i tragičnih događaja nije nužno dokaz da sustav izlaže javnost većem riziku.

Svakog tromjesečja Tesla objavljuje pogrešne statistike koje navode da vozači koji koriste Autopilot imaju bolju sigurnosnu evidenciju od onih koji ga ne koriste, iako su neki korisnici Autopilota nemarni. Iako su ove brojke jednake laži, Ja i drugi pokušali smo napraviti obrnuti inženjering stvarnih brojeva, a stvarne brojke i nisu tako loše i upućuju na to da korisnici autopilota imaju sličnu sigurnosnu evidenciju kao oni koji ga ne koriste. Iako nije superioran, niti ljude izlaže dodatnom riziku. Rezultat je dovoljno blizu da NHTSA provodi istragu o Teslinim nesrećama s hitnim vozilima. Nije poznato hoće li poduzeti preventivni pristup ili će pogledati cjelokupnu sigurnosnu evidenciju.

Mnogi su sugerirali da bi Tesla mogao poboljšati svoj rekord boljim praćenjem vozača. Standardni nadzor jednostavno zahtijeva od vozača da redovito primjenjuje silu na kotač. Druge tvrtke imaju kamere koje promatraju oči vozača kako bi se uvjerile da promatraju cestu — da je Uber ATG to učinio, spriječio bi njihovu smrt. Tesla je nedavno počela koristiti i praćenje pogleda vozača.

OGLAS

Treba napomenuti da je izračun koji pokazuje sigurnost Tesla Autopilota sličnu uobičajenoj vožnji utilitaristički. To je zapravo kombinacija veće stope nesreća među malim kadrom nemarnih korisnika autopilota koji ignoriraju cestu ili se upuštaju u samozadovoljstvo automatizacije, i bolje sigurnosne evidencije onih koji su marljivi. Imamo filozofske poteškoće s ovim — ne sviđa nam se da neki ljudi imaju veći rizik iako više ljudi ima manji rizik. Ne sviđa nam se toliko da marljivim ljudima uskratimo alat koji ih čini sigurnijima za zaštitu nemarnih, iako nam to nije cilj.

Što je s FSD-om

Gore navedeni podaci odnose se na Autopilot, koji je proizvod za dostavu. Tesla FSD nije proizvod za dostavu. Nazivaju ga "beta" (što je gotovo finaliziran proizvod u posljednjoj fazi testiranja prije izdavanja), ali to uopće nije. Sada imaju više od 100,000 vlasnika Tesle koji to isprobavaju. Kako bi ga koristio, vlasnik mora platiti naknadu (koja sada raste na 15,000 dolara) za prednarudžbu eventualnog FSD sustava i položiti neku vrstu ispita sigurne vožnje kako bi bio primljen u skupinu za testiranje. Ispit sigurne vožnje uglavnom je lažan i ne ispituje što biste zapravo željeli za ovaj zadatak, ali to znači da ga neće dobiti svatko tko plati.

Upozoravaju vozače da je sustav imao mnogo grešaka i da treba stalni nadzor poput ADAS-a, govoreći: "Učinit će pogrešnu stvar u najgorem trenutku." To je prilično jasna izjava, ali u isto vrijeme naziv "samostalna vožnja" očito asocira na sliku koja se razlikuje od ADAS-a. Vozio sam s ovim sustavom i ocijenio sam da je njegova izvedba prilično loša kao samovozeći sustav.

OGLAS

Čak i tako, usprkos intuicijama koje govore suprotno, čini se da Teslin pristup djeluje. Sa 100,000 vozača, sustav prolazi milijune milja rada (iako nema javnih podataka o tome koliko svaki vozač koristi sustav.) Također znamo da postoji veliki javni nadzor nad svim nesrećama koje uključuju testiranje FSD-a sustava, a samo mali broj manjih incidenata dospio je u javnost. Dok su neki Tesla FSD testeri toliko veliki obožavatelji Tesle da bi mogli sakriti nesreću koju su doživjeli, vrlo je malo vjerojatno da se znatan broj većih nesreća događa a da nijedna nije otkrivena. Bilo koja ozbiljna nesreća koju je prijavila policija, posebno nesreće s ozljedama, vrlo bi vjerojatno privukla pozornost, kao što je slučaj s autopilotom.

A ipak ih ne vidimo. Iako ovo nije prava znanstvena analiza, čini se vjerojatnim da Teslin FSD program trenutno ne ugrožava javnost. To se može pripisati tome koliko je sustav loš. Većina vozača zna da bi bilo stvarno glupo ne obratiti pozornost na ovaj sustav u njegovom trenutnom stanju. Moguće je da će se to promijeniti kako bude bolje. Ako uzmemo u obzir osnovni tempomat, koji je puno primitivniji, on radi jer se nitko ne bi usudio ne paziti na cestu dok ga koristi.

OGLAS

Teslino imenovanje

Tesla si ne pomaže nazivima proizvoda. Mnogi su bili kritični prema nazivu Autopilot, jer je (pogrešna) percepcija javnosti da autopiloti zrakoplova upravljaju avionom sami. Zapravo, autopilot zrakoplova je znatno, znatno jednostavniji sustav od Teslinog autopilota automobila, i funkcionira samo zato što ste u zraku vrlo daleko od svega što biste mogli pogoditi. No, to ne zaustavlja lažnu percepciju javnosti. S FSD-om je još gore. Još nije na razini samovožnje, ni blizu, a sigurno nije "pun". Ova zabuna navela je Waymo da odustane od upotrebe izraza samovožnja za opisivanje svog proizvoda, iz straha da je Tesla pogrešno definirao taj pojam u svijesti javnosti.

Tesla zapravo ne treba više hype za svoje proizvode. Prodaju sve što mogu napraviti. Zbunjujuće je da namjerno koriste ova imena umjesto podcjenjivanja i pretjeranog isporučivanja. Uštedjeli bi si mnogo tuge - osim one vrste "svaki publicitet je dobar publicitet".

Pa je li u redu ako Tesla udari lutku veličine djeteta?

Iznenađujući odgovor je "vjerojatno". Svi sustavi testnih prototipova radit će ovakve stvari, a osim zabrane svih testiranja prototipova, ne postoji način da se zahtijeva savršenstvo čak ni u tako izazovnom problemu kao što su rušenja s djecom. Teško je osmisliti regulatorni režim koji bi zabranio Tesla FSD koji također ne zabranjuje ili usporava razvoj vrlo važne tehnologije koja će s vremenom spasiti milijune života. Milijuni života nisu mala stvar, bit će to jedan od najvećih napredaka u sigurnosti u ljudskoj povijesti.

OGLAS

Najviše bismo mogli pokušati definirati stvari tako da oni koji nadziru takve testne sustave ispunjavaju određene kriterije. Mogli bismo inzistirati da dobiju bolji nadzor (što Tesla radi). Mogli bismo tražiti da budu profesionalni ili da prođu test, ali onda bismo stvorili tijelo koje definira i provodi te testove, što bi bilo glomazno. Možete postati instruktor vožnje samo polaganjem pismenog ispita i dobivanjem potvrde o dobrom zdravstvenom stanju, ne provodi se provjera vještina uživo.

Unatoč tome, mogli bismo definirati skup pravila o tome tko može nadzirati prototip sustava, a to bi moglo zaustaviti Teslinu aktivnost. Ali učiniti to značilo bi upasti u paradoks "što je bolje, to nam se više ne sviđa." Ne želimo otežati prelazak te doline kako bismo postali bolji sustav. Pravo je pitanje zašto bismo uopće željeli ići tamo ako nitko nije ozlijeđen. Trenutačno nema izvješća o ozlijeđenim osobama, svakako ne na bilo kojoj razini koja bi ukazivala na to da postoji veći rizik od onog kod obične vožnje. Ne želimo upasti u zamku zabranjivanja stvari jer imamo intuiciju da su opasne. Samo želimo zabraniti stvari koje su zapravo opasne.

Sasvim je moguće da će Tesla FSD testiranje kasnije postati preopasno. To se može dogoditi zbog samodopadnosti automatizacije ili promjena u sustavu. Razumno je da se od Tesle traži da vlastima prijavi koliko se incidenata dogodilo tijekom testiranja sustava, kako bismo mogli znati hoće li i kada postati opasan. O'Dowdov pristup "trebali bismo ovo zabraniti jer mi se čini da bi bilo opasno" je pogrešan, barem u SAD-u.

OGLAS

Pročitajte i ostavite komentare ovdje

Izvor: https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-whether-tesla-fsd-will-run-over-a-child-or-dummy-child- promašio-bit/