Hádka o tom, či Tesla FSD prejde dieťa alebo fiktívne dieťa, neuniká

A posledné video od TeslyTSLA
Kritik Dan O'Dowd z projektu Dawn Project ukazuje testovaciu dráhu s cestou z kužeľov. Tam vodič používajúci prototyp FSD od Tesly ide smerom k detskej figuríne a narazí do nej. Tvrdí sa, že Telsa FSD pre deti spoľahlivo nebrzdí. Kritici O'Dowda tvrdili, že video bolo sfalšované alebo zle vytvorené, a niektorí urobili svoje vlastné demá, vrátane toho, že k nešťastiu všetkých robili test so skutočnými živými „dobrovoľníckymi“ deťmi. Málokto sa zaoberal otázkou, či má prototyp ako Tesla FSD spoľahlivo brzdiť pre deti, čo je naozaj zaujímavá záležitosť.

O'Dowd často písal, že chce zakázanie Tesla FSD. Predtým som sa venoval jeho kampani, a nedávno sa uchádzal o nomináciu do kalifornského senátu výlučne na zobrazovanie reklám kampane proti Tesle FSD. Prirodzene vyvolal hnev Elona Muska a vokálnu pro-Teslovu komunitu. V dôsledku toho došlo k okamžitému sparingu. Pôvodné video prepojené vyššie neukázalo aktiváciu FSD, hoci neskoršie vydania ukázali, že áno. Niektorí navrhli, že ťažko čitateľné obrázky na obrazovke hovorili, že vodič drží stlačený pedál. Iné údaje ukazujú, že auto spomaľuje alebo vydáva varovania a argumenty o tom, aká skutočná je demonštrácia, prechádzajú sem a tam.

REKLAMA

Demonštrácia bola vybraná ako provokatívna, pretože nič nie je strašidelnejšie ako autá, ktoré zrážajú deti. V USA každý deň zomrú pri autonehodách 3 deti a každý rok zahynú autá okolo 170 detských chodcov. Pre mnohých je reakcia taká, že žiadna technológia, ktorá by kedy prekonala dieťa, nie je prijateľná. NHTHT
SA začala vyšetrovanie nasadenia Tesla Autopilot (čo je vydaný produkt) a začína sa zaoberať prototypom FSD. Iní, ako napríklad Ralph Nader, tiež vyzvali, aby stiahli prototyp FSD z cesty. Potom, čo veľmi malý počet ľudí zopakoval test so skutočnými deťmi, NHTSA vydala varovanie, aby to nerobili, a Youtube stiahol videá ľudí, ktorí to robili. Tesla údajne požiadala, aby boli odstránené aj videá, na ktorých ich auto narazilo do testovacej figuríny. Washington Post uvádza, že videl list o zastavení a upustení od spoločnosti Tesla.

Táto problematika je veľmi zložitá a ako to nie je nezvyčajné, nikto ju presne nechápe. Systém FSD, hoci sa nazýva beta, sa presnejšie nazýva prototyp. Samojazdiace prototypy (a beta verzie) si podľa názoru väčšiny vývojárov vyžadujú veľké množstvo testov na cestách a robí to každý tím, pričom ľudský „bezpečnostný vodič“ monitoruje systém a pravidelne zasahuje, keď urobí chyby, aby zabránil incidentom. Tesla je nezvyčajná v tom, že umožňuje bežným zákazníkom zapojiť sa do tohto testovania, zatiaľ čo všetky ostatné spoločnosti majú zamestnancov, ktorí túto úlohu vykonávajú s určitou úrovňou školenia a bežne majú 2 zamestnancov na vozidlo.

Prototypy zo svojej podstaty zlyhávajú, vrátane dôležitých vecí, ako je zastavenie kvôli chodcom na ceste. Každý tím od najlepších, ako je Waymo až po tých najhorších, dal na cesty vozidlá, ktoré by okrem zásahu pravidelne robili niečo vážne zléa väčšina sa domnieva, že testovanie takýchto vozidiel v počiatočnom štádiu bolo a stále je potrebné na dosiahnutie pokroku a prípadného nasadenia automobilov. Po nasadení budú mať autá oveľa vyššiu kvalitu a zachránia životy – veľa z nich – takže každý chce, aby sa nasadenie uskutočnilo čo najskôr, ale je tu veľa otázok, o ktorých treba diskutovať o tom, ako sa do tohto bodu dostaneme a kedy to dosiahneme. to.

REKLAMA

Asistent vodiča vs. Samojazdenie

Okrem otázky, či je využitie zákazníkov spoločnosti Tesla na testovanie ich prototypu dobrý nápad, sa veľa problémov točí okolo rozdielu medzi asistenčnými systémami vodiča, ktoré zahŕňajú človeka, ktorý je plne zapojený do riadenia, ale dohliada na systém a nie fyzicky sa pohybuje. ovládacie prvky a samoriadiace systémy, kde nie je potrebný žiadny ľudský dohľad (a vozidlo skutočne nemôže jazdiť, ak v ňom nikto nie je.)

Mnohí zasvätení z odvetvia sa domnievajú, že ide o dve dosť odlišné veci a že pre NHTSA bolo chybou vyhlásiť ich len za dve rôzne „úrovne“ automatizačnej technológie. Sterling Anderson, spoluzakladateľ spoločnosti Aurora self-driving, si myslí, že prechod z asistencie vodiča (alebo ADAS, pre pokročilú asistenciu vodiča) na samoriadenie je ako snažiť sa dostať na Mesiac stavaním vyšších rebríkov.

Prvým veľkým pokročilým asistenčným systémom vodiča, ktorý umožnil človeku zložiť nohy z pedálov, bol tempomat, najmä adaptívny tempomat. Neskôr prišlo sledovanie jazdných pruhov, ktoré vám umožnilo zložiť ruky z volantu, a čoskoro sa tieto dve veci spojili do produktov, ako je Tesla „Autopilot“. Ako nástroje ADAS (driver assist) sú určené na používanie s plnou pozornosťou.

REKLAMA

Aj keď tomu spočiatku nie každý veril, dnes je všeobecným záverom, že tieto systémy fungujú a nepredstavujú nebezpečenstvo na ceste. Ľudia spočiatku pochybovali o čo i len základnom tempomate, no čoskoro sa stal veľmi bežnou súčasťou áut.

Tesla Autopilot vyvolal nové otázky z rôznych dôvodov, ale najzaujímavejšia otázka sa točí okolo skutočnosti, že je jednoznačne lepšia vo funkčnosti ako predchádzajúce produkty, vrátane jednoduchších tempomatov – no táto nadradenosť by ho v skutočnosti mohla urobiť nebezpečnejším, a teda aj menejcenným. Vzniká zvláštny paradox, že čím je systém lepší, tým môže byť výsledok horší, pretože nadradený systém vyvoláva „spokojnosť pri automatizácii“, keď dohliadajúci vodič venuje menej pozornosti vozovke. (Niektorí sa tiež domnievajú, že názvy „Autopilot“ a FSD spoločnosti Tesla podporujú túto spokojnosť a verejné správy okolo týchto produktov to robia tiež.)

Toto nie je dobrý paradox. Chceme vyvinúť lepšie systémy, ale ak sa systém celkovo zhorší, keď ho vylepšíte, je oveľa ťažšie získať skutočne dobré systémy, keď cestujete údolím nebezpečenstva, kde sa veci zhoršia, kým sa zlepšia. Dnes by sme štandardnému tempomatu nikdy nevyčítali, že zrazí dieťa alebo preletí na červenú – tieto systémy boli oveľa jednoduchšie a nemali vôbec žiadnu schopnosť vyhnúť sa týmto chybám. Mnohí však chcú obviňovať oveľa lepší systém, ktorý sa zastaví pri väčšine prekážok, pretože sa nezastaví na 100 % – aj keď žiadny systém nikdy nebude taký dokonalý, aby sa vyhol 100 % chýb, a hoci ani ľudia nebudú dokonalí.

REKLAMA

Podieľal som sa na príprave prvých zákonov o testovaní autonómneho riadenia na svete v Nevade a Kalifornii. Hráči sa zhodli, že by mali existovať nejaké základné pravidlá o tom, ako robiť testovanie na cestách (predchádzajúce pravidlá to nezakazovali, pretože to samozrejme nikoho nenapadlo.) Zároveň automobilky, ktoré predávajú nástroje ADAS, urobili nechcú, aby ich autá ADAS podliehali skúšobným predpisom pre samoriadenie, takže prevádzka ADAS bola vylúčená tak, že sa na ňu tieto predpisy nevzťahujú.

Najmä v Kalifornii to vytvorilo otvorenú otázku. Všetky testy pri samoriadení (až na niekoľko nedávnych výnimiek) sa vykonávajú s dohliadajúcim bezpečnostným vodičom. Týmto spôsobom je to veľmi podobné jazdeniu v aute ADAS. Zákon nebol jasný v tomto rozdiele, čo vytvorilo niekoľko zaujímavých situácií. Anthony Levandowski, ktorý sa podieľal aj na tvorbe predpisov, bol neskôr šéfom UberuUBER
ATG. Vyhlásil, že keďže všetky ich autá v tom čase fungovali iba s bezpečnostným vodičom, toto bol ADAS a Uber nemusel dodržiavať pravidlá testovania autonómneho riadenia. Kalifornský DMV povedal nie, že podľa tejto logiky nikto netestoval samoriadenie, a to nebolo zámerom zákona. Povedali Uberu, že sa musia zaregistrovať ako testovacie vozidlá s vlastným riadením, inak budú ťahať poznávacie značky áut Uber pomocou svojich špeciálnych právomocí. Uber vyhovel.

REKLAMA

DMV zvolilo prístup, že ak ste sa pokúšali vytvoriť samojazdiaci systém, aj keď to bol skorý nekompletný systém, ktorý potreboval dohľad a bol vždy pod dohľadom, mali by ste sa považovať za samojazdiacu testovaciu spoločnosť riadenú pravidlami.

Napriek tomu Tesla pokračuje v rovnakom prístupe. Keďže Tesla určite má produkt ADAS, nikdy štátu nehlásia, že by robili testy na auto. DMV to zatiaľ nechalo skĺznuť – dokonca aj testovanie Tesla FSD zamestnancami Tesly, ktoré je veľmi ťažké rozlíšiť od toho, čo zastavili Uber. DMV to môže dobre regulovať. Ale čo používanie zákazníkom, kde je to oficiálne (ak si prečítate drobné písmo a ignorujete názov) asistenčný nástroj pre vodiča?

Ale zdá sa, že to funguje

Hlavným riešením boli spôsoby, ako zabezpečiť, aby pozornosť dohľadu zostala vysoká. Existujú na to rôzne techniky, vrátane sledovania vodiča rôznymi spôsobmi a otravovania, ak nedáva pozor, alebo, ako je uvedené, vyškolených profesionálnych vodičov alebo dokonca ich tímu s viacerými očami na ceste. Po mnoho desaťročí školíme vodičov v tínedžerskom veku v autoškolách tak, že máme inštruktora, ktorý vie uchopiť volant a má vlastnú brzdu na zastavenie auta, a tento systém funguje veľmi dobre.

REKLAMA

Silným záverom zatiaľ je, že to funguje. Bezpečnosť veľkých spoločností s vlastným riadením, ako je Waymo, je príkladná. Spoločnosť Waymo ohlásila v roku 20 viac ako 2021 miliónov kilometrov testovania s bezpečnostnými vodičmi a za ten čas mala možno 2 nehody. Ľudské bytosti budú mať v tomto časovom období v priemere takmer 40 nehôd. Tak ako sa študentom autoškoly s inštruktormi autoškoly darí oveľa lepšie ako čerstvo licencovaným vodičom, aj monitorovací systém jednoznačne funguje a tieto vozidlá v skutočnosti predstavujú pre verejnosť menšie riziko, ako by podobné jazdenie bežnými ľuďmi.

Prinajmenšom v USA, ak sa nikto nezraní – alebo ak je miera rizika nižšia ako pri bežnom šoférovaní – činnosť by vo všeobecnosti nebola regulovaná. Prístup USA je oveľa tolerantnejší – nemusíte dokazovať, že to, čo robíte, je bezpečné, ale ak sa ukáže, že to nie je bezpečné, môžete byť zastavený a uznaný za zodpovedného za akúkoľvek škodu, ktorú ste spôsobili. Niektoré iné krajiny by od regulačných orgánov vyžadovali, aby vopred rozhodli, či je niečo bezpečné, čo je oveľa vyššia hranica, ktorá je oveľa menej prospešná pre inovácie.

Samozrejme, v jednom slávnom prípade sa prístup bezpečnostného vodiča stal smrteľným, keď vozidlo Uber ATG zabilo chodca v Arizone. Vyšetrovanie NTSB a neskoršie súdne prípady zistili, že bezpečnostný vodič bol nedbanlivý (pozerala televíziu namiesto toho, aby robila svoju prácu), hoci Uber bol tiež obviňovaný z toho, že má zlú kultúru riadenia svojich bezpečnostných vodičov, čo prispelo k tejto chybe. Dôležitý záver je však taký systém bezpečnostného vodiča funguje a sám o sebe nevystavuje verejnosť neprimeranému riziku, aj keď je samozrejme možné, že vodiči pre bezpečnosť ľudí budú nedbalí a spôsobia vysoké riziko.

REKLAMA

To je systém s vyškolenými platenými vodičmi. Tesla ide ešte ďalej a prácu necháva robiť bežným zákazníkom. Došlo k niekoľkým incidentom, kedy vodiči Tesly zjavne zanedbali dohľad nad produktom Autopilot a došlo k nehodám, vrátane smrteľných. Automobily Tesla však s Autopilotom najazdia oveľa viac kilometrov ako ktorýkoľvek tím s vlastným riadením, takže prítomnosť negatívnych a dokonca tragických udalostí nie je nevyhnutne dôkazom toho, že systém vystavuje verejnosť väčšiemu riziku.

Tesla každý štvrťrok zverejňuje zavádzajúce štatistiky, ktoré uvádzajú, že vodiči používajúci Autopilota majú lepšie bezpečnostné záznamy ako tí, ktorí ho nepoužívajú, aj keď niektorí používatelia Autopilota sú nedbalí. Aj keď sa tieto čísla rovnajú klamstvu, Ja a iní sme sa pokúsili spätne analyzovať reálne čísla, a skutočné čísla nie sú také zlé a naznačujú, že používatelia Autopilota majú podobný bezpečnostný záznam ako nepoužívatelia. Hoci to nie je nadradené, nevystavuje ľudí ani ďalšiemu riziku. Výsledok je dostatočne blízko k tomu, že NHTSA vedie vyšetrovanie nehôd Tesla s pohotovostnými vozidlami. Nie je známe, či prijmú preventívny prístup alebo sa pozrú na celkový bezpečnostný záznam.

Mnohí navrhli, že Tesla by mohla zlepšiť svoje záznamy lepším monitorovaním vodičov. Štandardné monitorovanie jednoducho vyžaduje, aby vodič pravidelne vyvíjal silu na koleso. Iné spoločnosti majú kamery, ktoré sledujú oči vodiča, aby sa uistili, že sledujú cestu – keby to Uber ATG urobil, zabránili by ich úmrtiu. Tesla nedávno začala využívať aj sledovanie pohľadu vodiča.

REKLAMA

Treba poznamenať, že výpočet, ktorý ukazuje bezpečnosť Tesla Autopilot ako podobnú bežnej jazde, je utilitárny. Je to vlastne kombinácia vyššej nehodovosti medzi malým kádrom nedbalých používateľov Autopilota, ktorí ignorujú cestu alebo sa dostanú do samoľúbosti s automatizáciou, a lepšej bezpečnosti od tých, ktorí sú svedomití. Máme s tým filozoficky ťažké časy – nepáči sa nám, že niektorí ľudia majú vyššie riziko, aj keď viac ľudí má nižšie riziko. Nepáči sa nám to natoľko, že by sme mohli pripraviť usilovných ľudí o nástroj, ktorý ich robí bezpečnejšími na ochranu tých, ktorí sú nedbalí, hoci to nie je naším cieľom.

A čo FSD

Vyššie uvedené údaje sa týkajú Autopilota, čo je prepravný produkt. Tesla FSD nie je prepravný produkt. Nazývajú to „beta“ (čo je takmer dokončený produkt v poslednej testovacej fáze pred vydaním), ale vôbec to tak nie je. Teraz to skúša viac ako 100,000 15,000 majiteľov Tesly. Aby ho mohol používať, majiteľ musí zaplatiť poplatok (teraz stúpajúci na XNUMX XNUMX USD) za predobjednávku prípadného systému FSD a prejsť istým druhom testu bezpečnej jazdy, aby mohol byť prijatý do testovacej kohorty. Test bezpečnej jazdy je do značnej miery falošný a netestuje, čo by ste v skutočnosti chceli za túto úlohu, ale to znamená, že nie každý, kto zaplatí, to dostane.

Varujú vodičov, že systém má veľa chýb a potrebuje neustály dohľad, ako je ADAS, a hovoria: "V najhoršom čase urobí nesprávnu vec." To je celkom jasné tvrdenie, no zároveň názov „plná samojazda“ zjavne vyvoláva iný imidž ako ADAS. Jazdil som s týmto systémom a usúdil som, že jeho výkon je ako samoriadiaci systém dosť slabý.

REKLAMA

Napriek intuícii o opaku sa zdá, že Teslov prístup funguje. So 100,000 XNUMX vodičmi je systém v prevádzke milióny míľ (hoci neexistujú žiadne verejné údaje o tom, ako každý vodič systém používa.) Vieme tiež, že všetky nehody zahŕňajúce testovanie FSD sú veľmi často predmetom verejnej kontroly. systému a len malý počet menších incidentov sa dostal na verejnosť. Zatiaľ čo niektorí testeri Tesla FSD sú takí veľkí fanúšikovia Tesly, že by mohli skrývať nehodu, ktorú mali, je mimoriadne nepravdepodobné, že by sa stalo významné množstvo veľkých nehôd, pričom žiadna nebola odhalená. Akékoľvek vážne nehody nahlásené políciou, najmä nehody so zranením, by si veľmi pravdepodobne získali pozornosť, ako to robí v prípade Autopilota.

A predsa ich nevidíme. Aj keď to nie je skutočná vedecká analýza, zdá sa pravdepodobné, že program FSD spoločnosti Tesla v súčasnosti nevystavuje verejnosť riziku. Môže to byť spôsobené tým, aký zlý je systém. Väčšina vodičov vie, že by bolo naozaj hlúpe nevenovať pozornosť tomuto systému v jeho súčasnom stave. Je možné, že keď sa to zlepší, zmení sa to. Ak vezmete do úvahy základný tempomat, ktorý je oveľa primitívnejší, funguje, pretože nikto by sa pri jeho používaní neodvážil venovať pozornosť ceste.

REKLAMA

Pomenovanie Tesly

Tesla si nepomáha názvami produktov. Mnohí kritizovali názov Autopilot, pretože (falošná) verejnosť vnímala, že autopiloti lietadiel riadia lietadlo sami. V skutočnosti je autopilot lietadla oveľa, oveľa jednoduchší systém ako autopilot Tesla a funguje len preto, že vo vzduchu ste veľmi ďaleko od čohokoľvek, čo by ste mohli zasiahnuť. To však nezastaví falošné vnímanie verejnosti. S FSD je to ešte horšie. Ešte to nie je na úrovni samojazdy, ani zďaleka, a určite nie je „plné“. Tento zmätok viedol Waymo k tomu, aby sa vzdal používania termínu self-driving na opis svojho produktu, zo strachu, že Tesla tento termín vo verejnej mysli nesprávne definovala.

Tesla naozaj nepotrebuje väčší hype pre svoje produkty. Predávajú všetko, čo dokážu. Je mätúce, že zámerne používajú tieto mená, než aby ich podceňovali a preháňali. Ušetrili by si veľa smútku – okrem toho typu „každá reklama je dobrá reklama“.

Je teda v poriadku, ak Tesla zrazí figurínu veľkosti dieťaťa?

Prekvapivá odpoveď je „pravdepodobne“. Všetky systémy testovacích prototypov budú robiť takéto veci a okrem zákazu akéhokoľvek testovania prototypov neexistuje žiadny spôsob, ako požadovať dokonalosť ani v takej sugestívnej otázke, akou sú havárie s deťmi. Je ťažké vytvoriť regulačný režim, ktorý by zakázal Teslu FSD, ktorý by zároveň nezakázal alebo nespomalil vývoj veľmi dôležitej technológie, ktorá časom zachráni milióny životov. Milióny životov nie sú maličkosti, pôjde o jeden z najväčších pokrokov v oblasti bezpečnosti v histórii ľudstva.

REKLAMA

Maximálne by sme sa mohli pokúsiť definovať veci tak, aby tí, ktorí dohliadajú na takéto testovacie systémy, spĺňali určité kritériá. Mohli by sme trvať na tom, aby mali lepšie monitorovanie (čo robí Tesla). Mohli by sme ich požiadať, aby boli profesionálni alebo prešli testom, ale potom by sme vytvorili orgán, ktorý definuje a presadzuje tieto testy, čo by bolo ťažkopádne. Inštruktorom autoškoly sa môžete stať iba absolvovaním písomného testu a získaním osvedčenia o dobrom zdravotnom stave, nerobí sa žiadna živá skúška zručnosti.

Napriek tomu by sme mohli definovať súbor pravidiel pre to, kto môže dohliadať na prototypový systém, a to by mohlo zastaviť činnosť Tesly. Urobiť to by však znamenalo upadnúť do paradoxu „čím je to lepšie, tým viac sa nám to nepáči“. Nechceme sťažiť prechod cez toto údolie, aby sme sa stali lepším systémom. Skutočnou otázkou je, prečo by sme tam chceli ísť, ak sa nikomu nič nestalo. Momentálne nie sú správy o zranených ľuďoch, určite nie na úrovniach, ktoré by naznačovali, že existuje väčšie riziko ako pri bežnej jazde. Nechceme sa dostať do pasce zakazovania vecí, pretože máme intuíciu, že sú nebezpečné. Chceme zakázať len veci, ktoré sú skutočne nebezpečné.

Je dosť možné, že testovanie Tesla FSD neskôr začne byť príliš nebezpečné. Môže k tomu dôjsť v dôsledku neuspokojivej automatizácie alebo zmien v systéme. Je rozumné, aby Tesla bola požiadaná, aby nahlásila úradom, koľko incidentov sa odohralo počas testovania systému, aby sme vedeli, či a kedy sa stane nebezpečným. O'Dowdov prístup „toto by sme mali zakázať, pretože sa mi to zdá nebezpečné“ je nesprávny, aspoň v USA.

REKLAMA

Prečítajte si a zanechajte komentáre tu

Zdroj: https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-what-tesla-fsd-will-run-over-a-child-or-dummy-child- míňa sa pointa/