Cruise si po havárii „spomína“ na robotickú os, ale privolanie je nesprávny mechanizmus

V júni mala jednotka „Cruise“ spoločnosti General Motor, ktorá v noci prevádzkuje bezpilotné robotické osy v San Franciscu a ktorá sa chystá rozšíriť službu, mala nehodu s ľahkými zraneniami, keď zastavila uprostred ľavotočivej zákruty, a prekročením rýchlosti protiidúce auto. udrel to na stranu. Je to zaujímavé z hľadiska toho, čo sa pri nehode pokazilo, ale aj z hľadiska spôsobu, akým bola oprava softvéru na žiadosť Národnej agentúry pre bezpečnosť cestnej dopravy nazvaná „Stiahnutie z obehu“.

Cruise tento týždeň oznámil, že budú rozširuje svoje služby v San Franciscu a otvára sa aj na Phoenix a Austin do konca roku 2022.

Je pravdepodobné, že ide o prvú nehodu, pri ktorej nebol prítomný bezpečnostný vodič, nejaká chyba v jazdnom systéme a zranenia tretích osôb (spolujazdcov aj tých v druhom vozidle). Nedávno boli odhalené nové podrobnosti o udalosti.

O nehode

Cruiseovo vozidlo urobilo chybu, ale podľa Cruisa sa zistilo, že druhé vozidlo je „najväčšou chybou“, pretože išlo 40 v zóne 25 a pretože sa blížilo v pravom odbočovacom pruhu, ale namiesto toho, aby odbočilo vpravo sa preradil do prechodného pruhu a križovatkou prešiel rýchlosťou. Niektoré podrobnosti možno nájsť v Správa CA DMV. Neboli vydané žiadne citácie, ale udalosť môže byť stále predmetom vyšetrovania.

Rekonštrukcie podujatia naznačujú, že Cruise car dúfal, že odbočí doľava – slávna „nechránená ľavica“, ktorú mnohé tímy považovali za výzvu. Prius sa približoval v jazdnom pruhu, ktorý si vyžaduje odbočenie doľava, s výnimkou autobusov a taxíkov, a Cruise car predpokladalo, že auto skutočne odbočí doprava a že môže odbočiť ako prvé, kým sa tam Prius dostane. Prius nebol taxík, ale nie je známe, či si tým bol Cruise istý, alebo sa na tom zakladal rozhodnutia. Zdá sa pravdepodobné, že Cruise predpovedal, že auto spomalí a nechal čas na odbočenie a začal sa otáčať.

Prius nespomalil, takže Cruisov predpovedný motor usúdil, že ak bude Cruise pokračovať v zákrute a rýchly Prius tiež zatočí, Prius na Cruise narazí. Cruise teda urobil to, čo považoval za konzervatívnu správnu vec, a to tvrdé zastavenie na križovatke, čo by Priusu umožnilo urobiť to správne.

Prius to neurobil. V skutočnosti sa presunula späť do priechodného pruhu a pokračovala do križovatky. Dalo by sa predpokladať, že vždy chcel ísť rovno a teraz sa možno snažil vyhnúť autu, ktoré zastavilo na križovatke. Neurobil to a narazil do zadnej časti vozidla Cruise, pričom v oboch autách spôsobil ľahké zranenia.

Cruise priznal, že ich softvér sa správal nesprávne podanie u NHTSA, aj keď nehodu na Priuse obviňuje z vysokej rýchlosti a zaradenia do nesprávneho jazdného pruhu. Cruise Bolt mohol zabrániť nehode buď tým, že nezastavil a nedokončil svoju zákrutu, alebo sa vôbec nepokúsil odbočiť. Väčšina robotických áut je konzervatívna a nie je celkom schopná vyhnúť sa nehodám zrýchlením, pretože to môže viesť k ďalším problémom.

Cruise odmietol odpovedať na väčšinu otázok o tejto udalosti nad rámec toho, čo je v ich záznamoch. Ako sa uvádza v podaní, auto bolo v „autonómnom režime bez vodiča“ a plavba potvrdzuje, že na palube nebol žiadny bezpečnostný vodič. Policajné správy hovoria, že v zadnej časti lode Bolt sa nachádzali 3 pasažieri (jazdili zadarmo) a jeden odišiel nakrátko do nemocnice s ľahkými zraneniami. V Priuse boli dvaja, ktorých ošetrili na mieste činu. Keďže sa tento pasažier neprihlásil do tlače, je možné, že Cruise ponúkol tejto osobe podnety, aby tak nerobila. Cruise nevyžaduje od jazdcov NDA.

Cruise uviedol, že tento problém je veľmi zriedkavý a stalo sa to iba raz pri viac ako 120,000 3 nechránených zákrutách doľava. (Ale pozri nižšie, aby ste zistili, či je to dobré.) O XNUMX dni neskôr vydali aktualizáciu softvéru, o ktorej sa domnievajú, že problém rieši. Priznávajú, že je ich povinnosťou urobiť viac, aby sa vyhli zrážke, aj keď sa ostatní účastníci cestnej premávky správajú zle, a to je dobrá filozofia. Väčšina autonómnych tímov sa snaží vytvárať situácie s nevyspytateľnými ostatnými vodičmi v simulátore a snaží sa nájsť každú z nich, ktorú môžu. Takáto situácia je teraz určite v Cruiseovom simulátore a tiež v simulátoroch každého iného veľkého tímu, ktorý číta správy, ak ich ešte nemal.

O Recall

Je zvláštne, že Cruise opísal túto konkrétnu aktualizáciu softvéru ako „stiahnutie“ a podal skutočné oznámenie o stiahnutí do NHTSA. Cruise a všetky ostatné tímy neustále aktualizujú softvér, aby vyriešili problémy, aj keď je samozrejme veľmi zriedkavé opraviť problém, ktorý spôsobil nehodu - našťastie. Neuvádzajú to prostredníctvom mechanizmu odvolania. Zdá sa, že mechanizmus stiahnutia nie je vhodný z mnohých dôvodov:

  1. Cruise vlastne nesvolával vozidlá, tzn. požiadajte ich o vrátenie do servisného strediska na opravu. Práve použil svoj pravidelný proces aktualizácie softvéru cez vzduch.
  2. GM/Cruise tieto vozidlá nikdy nepredávala, vlastní ich a prevádzkuje, takže v skutočnosti ich nemožno stiahnuť od zákazníka.
  3. Proces stiahnutia je komplikovaný a byrokratický a rozhodne ho nemožno použiť pri každej aktualizácii softvéru, dokonca ani pri aktualizáciách, ktoré riešia bezpečnostný problém. Takmer všetky aktualizácie softvéru opravujú nejaký bezpečnostný problém alebo iný, len nie ten, ktorý skutočne spôsobil (a nie mohol spôsobiť) zlyhanie.

Dáva zmysel, aby boli tieto nehody a ich opravy hlásené, a skutočne bola táto nehoda nahlásená kalifornskému DMV, polícii a NHTSA dlho pred stiahnutím. NHTSA požiadala alebo akceptovala stiahnutie niektorých ďalších softvérových zmien a musí tento proces zrevidovať a zefektívniť. Zatiaľ čo NHTSA má právomoc regulovať bezpečnosť áut predávaných v USA, je menej jasné, akú právomoc má nad autami, ktoré sa nepredávajú. Stojí za zmienku, že len deň pred touto nehodou dostal Cruise povolenie – ale ešte nezačalo – predávať jazdy vo svojich autách a mohlo by mať zmysel regulovať autá, v ktorých sa predávajú jazdy (aj keď to môže byť skôr štátna záležitosť, ak neprekračujú štátne hranice.)

Predtým, keď mal Pony.AI nehodu v jednom z ich bezpilotných vozidiel, DMV im stiahlo povolenie na prevádzku v tomto štáte. V prípade Ponyho išlo o samostatnú autonehodu, jednoznačne vinu na ich vozidle. Rôzne okolnosti mohli mať za následok rôzne konanie alebo nečinnosť DMV.

Nehody robotov sú rôzne

Táto havária nám hovorí niečo o odlišnom modeli nehôd v robokách. Prvé reakcie ukazujú, že Cruise môže byť menej vyspelý, než by sa chcelo. Waymo mal v roku 2016, 7 rokov po svojom projekte, nehodu, pri ktorej to bola chyba, hoci bez zranení. Odvtedy mali veľmi málo, hoci len nedávno jazdili ťažko na území, akým je San Francisco. Cruise mal v poslednej dobe veľa trápnych chýb, vrátane nezvyčajného zastavenia polície, zastavovania skupín áut kvôli chybe v komunikácii so serverom, incidentu s hasičským autom, sťažností na vyzdvihnutie/odvoz uprostred ulici a zmrazenie na začiatku jazdy pre reportéra Today Show. To je viac, ako sme o Waymo a iných počuli, a preto dúfame, že sú to len bolesti zubov. Každý tím bude mať problémy a v skutočnosti každý tím bude mať zlyhania a dôležitá je frekvencia, s akou k nim dochádza.

Cruise 12. septembra uviedol, že v San Franciscu vykonali asi 300,000 250,000 míľ servisu robotaxi bez bezpečnostného vodiča a v júni by urobili menej. To nie je skvelé, pretože ľudskí vodiči majú tendenciu mať zranenie na každých milión kilometrov jazdy. Aj keď možno hodnotiť Cruise, že má menej chýb ako vodič Priusu, nie je to taký dobrý rekord, ako by sme chceli. (Nehoda po povedzme 4 4 míľach neznamená, že neurobia milión míľ pred ďalšou, ale nie je to skvelé znamenie.) Na druhej strane, vo všeobecnosti najazdili XNUMX milióny míľ (s bezpečnostnými vodičmi Pretože bezpečnostní vodiči zasahovali s akýmikoľvek problémami počas XNUMX miliónov míľ, nevieme, aká bola skutočná nehodovosť pre tento systém – ktorý bol tiež starším a horším systémom v porovnaní s najnovším systémom. robí dobre, že TeslaTSLA
uvádza, že jeho zákazníci bezpečne najazdili 30 miliónov míľ s veľmi nekvalitným Tesla FSD a neobjavili sa žiadne správy o žiadnej vážnej nehode, najmä zraneniach.

Jedinečný aspekt robotov bol však spomenutý vyššie. Cruise tento problém vyriešil za 3 dni a už sa to nebude opakovať, aspoň nie takto. Ostatné firmy si to zrejme dali do svojich simulátorov a ani im sa to nestane. Spoločnosti budujú rozsiahle knižnice simulačných scenárov (a dokonca, v projekte, ktorý som pomáhal podnietiť, s nimi obchodujú.) Keď to urobia, majú algoritmy na „rozmazanie“ scenára, čo znamená ladenie všetkých parametrov rôznymi spôsobmi. Skúsia to s druhým autom pri rôznych rýchlostiach alebo pri zmene jazdného pruhu v rôznych časoch. Skúsia to s autom Cruise inak. Skúsia to s chodcami, ktorí na križovatke robia rôzne veci, aby otestovali, že v tisíckach variácií sa nevyskytuje žiadny problém.

Toto nie je ako u ľudí. Ak sa človeku stane takáto nehoda – a to sa stane –, lekcie tejto osoby nepoučia nikoho z ostatných. V najlepšom prípade môže mesto časom zlepšiť pravidlá na jazdných pruhoch alebo rýchlosť, ale to si vyžiada veľa incidentov. Bez ohľadu na chyby, ktoré roboti urobia, sa vo všeobecnosti budú len zlepšovať.

Ľudia sa zhoršujú. Zatiaľ čo väčšina ľudí očakáva, že mladí vodiči sú najdivokejší a majú najviac nehôd, najviac sa zabíjajú práve 80-roční vodiči – graf má tragický tvar „U“. Čiastočne je to preto, že starší vodiči sú krehkejší, ale zistilo sa aj to, že s tým, ako sa ich schopnosti zmenšujú, dostávajú viac nehôd. Najmä, a čo je bizarné, sa stávajú častejšie nehodami, keď ich zrazí auto, a nie auto, ktoré zrazí, hoci je to stále ich chyba, kvôli situáciám, ako je táto v nechránených zákrutách doľava. Roboty by mali byť vynikajúce v posudzovaní fyziky týchto situácií, ale Cruisov systém urobil príliš veľa predpokladov.

Toto je tiež klasický príklad problému predikcie. Aj keď vo svete robokár neustále hovoríme o senzoroch, snímanie nie je cieľom, je to prostriedok na dosiahnutie skutočného cieľa, ktorým je predpoveď. Nezáleží na tom, kde je všetko teraz, dôležité je, kde to bude v blízkej budúcnosti. Cruise nesprávne odhadol, kam by sa Prius mohol dostať, a tiež čo s tým robiť, keď sa situácia zmení. Mám podozrenie, že Cruisovo auto nie je naprogramované tak, aby robilo veci ako uháňať vpred, aby sa vyhlo nehode, alebo dokonca cúvať. Nemáme údaje o tom, či sa za Cruise Boltom nachádzalo auto, ale jedna vec, ktorú roboty robia, je, že sa pozerajú na všetky strany naraz, a ak by bolo za nimi jasne, auto by mohlo konať oveľa rýchlejšie ako človek, ktorý by musíte skontrolovať zrkadlo a prejsť na radenie. Elektrický automobil a zrýchlenie veľmi rýchlo a včas, robotické elektromobily by mali byť veľmi svižné pri predchádzaní nehodám – ak sa odvážia.

Hovorím, ak sa odvážia, pretože väčšina spoločností je veľmi konzervatívna. Nechcú robiť náhle pohyby, ktoré by mohli situáciu zhoršiť, dokonca ani pri 360-stupňovom videní. Najmä mnohé náhle pohyby tohto druhu sú technicky nezákonné a nechcú úmyselne porušiť zákon, najmä ak by sa to mohlo pokaziť. Napríklad chodci môžu kedykoľvek vyjsť spoza vecí prekvapení. Ak skočia pred vami, nie je to vaša chyba, ale ak ste na chodníku, aby ste sa vyhli nehode, je to už iný príbeh. (Nie, autá sa nikdy nepokúsia vybrať, koho zrazia, ak si budú musieť vybrať medzi dvoma ľuďmi, to je bežný mýtus a nepríjemná otázka, nie niečo, čo sa skutočne stane.)

Časom by sa roboti mali v tejto situácii zlepšiť ako ľudia. Zlepšia sa v predpovedaní rozsahu vecí, ktoré urobia iné autá. Auto malo neustále hovoriť: „Čo urobím, ak ten chlap nezabočí tak, ako to vyžadujú pravidlá“ a uistiť sa, že je možné vykonať akciu – vrátane zrýchlenia v zákrute alebo cúvania. Ak neexistuje žiadna akcia, ktorá by mohla fungovať, a riziko má dostatočne vysokú pravdepodobnosť, auto by počkalo, ale v ideálnom prípade bude možná akcia. Je potrebné tolerovať určité riziko nehody, keď ostatní konajú nepredvídateľne. Defenzívna jazda je dobrá, ale úplne defenzívny vodič bude blokovať cesty opatrne, čím sa problém nevyrieši.

Prečítajte si / zanechajte komentáre tu

Zdroj: https://www.forbes.com/sites/bradtempleton/2022/09/14/cruise-recalls-robotataxis-after-crash-but-the-recall-is-the-wrong-mechanism/