Etika AI zápasí s nevyhnutnými nehodami AI, ktoré sa vynárajú aj nad autonómnymi autonómnymi autami

Poznáte snáď niekoho, kto sa zdá byť obzvlášť náchylný na nehody?

Zdá sa, že to robíme všetci.

Možno je to ten typ človeka, ktorý je schopný skĺznuť na banánovú šupku alebo zraziť vzácnu vázu vo vašej obývačke. Sú ľudským magnetom na nehody toho či onoho druhu. Mohlo by to byť také zlé, že sa vám dokonca občas nepáči byť v ich blízkosti. Môžete dostať zlovestný prepad alebo utrpieť neslávne následky jednej z ich nechutných nehôd.

Ale možno sme príliš drsní, keď naznačujeme, že niekto je náchylnejší na nehody ako ostatní. Dal by sa argumentovať, že nehoda sa môže stať každému z nás. Všetci sme vystavení možnosti, že spáchame nehodu alebo sa do nej zapletieme. Vrátane toho najlepšieho z nás.

Nakopme túto diskusiu dodatočne znepokojujúcu otázku.

Sú nehody nevyhnutné?

Inými slovami, bez ohľadu na to, ako veľmi sa snažíme predchádzať nehodám, môže sa stať, že napriek tomu stále existuje šanca a konečná istota, že k nehodám dôjde. Môžete sa snažiť chrániť svet pred nehodami. Zdá sa to nepochybne obozretné. Ale tak či onak, nehody budú stále dvíhať ich škaredú hlavu.

Ako sa hovorí, nehody čakajú, kým sa nestanú.

Mohlo by byť užitočné objasniť, čo sa myslí odkazom na určitú udalosť, ktorá je vhodne označená ako nehoda. Zvyčajná definícia zo slovníka hovorí, že nehoda je typ incidentu, ku ktorému dôjde neočakávane a neúmyselne, pričom dôjde k nešťastnému výsledku, ktorý pozostáva zo zdania škody alebo zranenia.

Pozorne rozbaľte túto definíciu.

Uvedený incident je neočakávaný. To znamená, že sme si neuvedomili, že k samotnej nehode dôjde.

Uvedený incident je neúmyselný. To naznačuje, že by sme mali vylúčiť okolnosti, za ktorých sa niekto úmyselne snažil, aby k incidentu došlo. Ak vtipkár položí banánovú šupku na podlahu, kde vie, že vkročí nešťastný a nič netušiaci nevinný, ťažko by ste tvrdili, že osoba, ktorá o ňu zakopne, utrpela nehodu. Namiesto toho boli oklamaní a zákerne navedení do pasce.

Definícia zahŕňa aj kritérium, že výsledok je nešťastný. Nehoda v tomto svetle musí viesť k nešťastnému výsledku. Osoba, ktorá nešťastnou náhodou prevrhla vázu, praskla a pravdepodobne poškodila vychýrený predmet tak, že sa nedá opraviť. Majiteľ vázy je poškodený stratou hodnoty. Osoba, ktorá vbehla do vázy, by teraz mohla dlžiť majiteľovi stratu. Nedaj bože, že by niekto mohol byť porezaný alebo zošrotovaný rozbitím vázy.

Kvôli rovnováhe by sme chceli poznamenať, že existujú aj takzvané „dobré“ nehody. Človek by sa mohol ocitnúť vo veľkom bohatstve alebo získať nejaký iný životne dôležitý prospech v dôsledku nehody. Jedným z najčastejšie uvádzaných príkladov je Sir Alexander Fleming a jeho uznávaný objav penicilínu. Hovorí sa, že bol vo svojom laboratóriu trochu neopatrný a po návrate z dvojtýždňovej dovolenky našiel na jednej zo svojich kultivačných platní pleseň. Údajne sa k veci vyjadril takto: „Človek niekedy nájde to, čo nehľadá. Keď som sa 28. septembra 1928 zobudil tesne po úsvite, rozhodne som nemal v pláne urobiť revolúciu v celej medicíne objavením prvého antibiotika alebo zabijaka baktérií na svete. Ale myslím, že to bolo presne to, čo som urobil."

Necháme bokom priaznivé nehody a zameriame sa tu na žalostné nehody. Verzia nehôd so zamračenou tvárou je taká, že tieto nepriaznivé následky môžu byť obzvlášť život ohrozujúce alebo mať nepriaznivé následky. Nehody so smajlíkmi, ktoré chceme čo najviac minimalizovať (a, samozrejme, nehody s prevrátením, ktoré by sme chceli maximalizovať, ak je to možné, aj keď o variante smajlíka sa budem venovať v neskoršom stĺpci).

Chcel by som trochu preformulovať predchádzajúcu otázku o nevyhnutnosti nehôd. Doteraz sme venovali pozornosť nehodám, ku ktorým dochádza v konkrétnom prípade jedinej osoby. Niet pochýb o tom, že nehody môžu postihnúť aj množstvo ľudí naraz. To sa môže vyskytnúť najmä vtedy, keď sú ľudia ponorení do zložitého systému toho či onoho druhu.

Pripravte sa na variant predchádzajúcej otázky.

Sú systémové nehody nevyhnutné?

Mali by sme to premyslieť.

Predpokladajme, že poschodie továrne je usporiadané na výrobu dielov pre autá. Tí, ktorí navrhli továreň, sú, povedzme, mimoriadne znepokojení pracovnými úrazmi, ktoré by sa mohli vyskytnúť. Pracovníci továrne sú povinní neustále nosiť prilby. Nápisy v továrni nabádajú, aby ste si dávali pozor na nehody a boli pri svojej práci opatrní. Prijímajú sa všetky možné opatrenia, aby sa predišlo nehodám.

V tomto systéme môžeme dúfať, že nikto nikdy nespôsobí nehodu. Veríte, že je nulová šanca, že sa stane nehoda? Dovolím si naznačiť, že žiadny rozumne uvažujúci človek by v tomto prípade nestavil na to, že šanca na nehodu je nulová. Pravdepodobnosť, že sa stane nehoda, môže byť naozaj nízka, no stále vieme a predpokladáme, že napriek všetkým preventívnym opatreniam stále existuje malé riziko, že k nehode dôjde.

To všetko poukazuje na myšlienku, že v dostatočne zložitom systéme musíme veriť, že nehody sa budú stále vyskytovať, bez ohľadu na to, ako veľmi sa im snažíme predchádzať. Neochotne podporujeme podmienku, že systémové havárie sú skutočne nevyhnutné. Grandiózne vyhlásenie tohto kalibru môže mať výhradu, že systém by musel mať určitú hranicu zložitosti, takže je v podstate nemožné pokryť všetky základne, aby sa úplne zabránilo nehodám.

Teraz ste sa pekne krok za krokom zoznámili so široko načrtnutou teóriou o nehodách, ktoré možno označiť ako normálne nehody alebo teóriu bežných nehôd (NAT). Tu je praktický popis od výskumníkov, ktorí skúmali tento pojem: „V dostatočne veľkom rozsahu bude každý systém produkovať ‚normálne nehody‘. Ide o neodvratné nehody spôsobené kombináciou zložitosti, prepojenia medzi komponentmi a potenciálneho poškodenia. Bežná nehoda sa líši od bežnejších nehôd zlyhania komponentov v tom, že udalosti a interakcie vedúce k bežnej nehode nie sú pre operátorov systému pochopiteľné“ (ako je uvedené v „Pochopenie a predchádzanie zlyhaniam AI: Praktická príručka“ od Roberta Williamsa a Roman Yampolskiy, filozofia denník).

Dôvod, prečo som vás priviedol do krajiny tzv bežné nehody je, že možno budeme musieť túto teóriu opatrne aplikovať na niečo, čo sa postupne a nevyhnutne stáva všadeprítomným v našej spoločnosti, konkrétne na príchod umelej inteligencie (AI).

Poďme sa do toho hrabať.

Niektorí ľudia sa mylne domnievajú, že AI bude dokonalosť. Systémy AI nebudú robiť chyby a nedostanú nás do problémov, hovoria špekulácie. Všetko, čo musíte urobiť, je uistiť sa, že títo vývojári AI odvádzajú dostatočne dobrú prácu, a voila, AI nikdy neurobí nič, čo by sa dalo považovať za náhodné alebo splodenie nehody.

Nie tak rýchlo v tomto hypotetickom presvedčení. Ak ste ochotní kúpiť si teóriu bežné nehodykaždá umelá inteligencia akejkoľvek podstatnej zložitosti nevyhnutne spôsobí nehodu. Bez ohľadu na to, koľko neskoro v noci robia vývojári AI, aby zabránili nehode, AI sa určite v určitom okamihu zapletie do nehody. To je spôsob, akým sa koláčik rozpadá. A plačom v rozliatom mlieku kvôli tomu nie je žiadny oddych.

Premýšľajte o mashup AI a koncepčných princípoch bežné nehody.

Predstavte si, že máme systém AI, ktorý ovláda jadrové zbrane. AI bola starostlivo vytvorená. Všetky mysliteľné kontroly a rovnováhy boli zakódované do systému AI. Sme v bezpečí pred nehodou spôsobenou umelou inteligenciou, ktorá by mohla nastať? Tí, ktorí podporujú normálny názor na nehody, by povedali, že nie sme až tak v bezpečí, ako by sa dalo predpokladať. Vzhľadom na to, že AI bude pravdepodobne obzvlášť zložitá, tam v tichosti čaká normálna nehoda, aby sa jedného dňa objavila, možno v tú najhoršiu možnú chvíľu.

Podstatou týchto chúlostivých otázok a pochybností je, že musíme byť na pozore, že AI je nevyhnutne zaťažená nehodami a ľudstvo musí urobiť niečo rozumné a proaktívne, pokiaľ ide o nebezpečenstvá, ktoré môžu z toho vyplynúť. Ako o chvíľu uvidíte, toto je hroziaca úvaha, pokiaľ ide o používanie AI, a v oblasti etiky AI a etiky AI sa dosť zápasí o to, čo robiť. Moje pokračujúce a rozsiahle pokrytie etiky AI a etickej AI nájdete v časti odkaz tu a odkaz tu, Len aby sme vymenovali niekoľko.

Predtým, ako sa pustíme do králičej nory, presvedčte sa, že sme na rovnakej stránke o povahe AI. Dnes neexistuje žiadna umelá inteligencia, ktorá by bola vnímavá. Toto my nemáme. Nevieme, či bude vnímajúca AI možná. Nikto nemôže vhodne predpovedať, či dosiahneme vnímajúcu AI, ani to, či sa vnímajúca AI nejakým zázrakom spontánne objaví vo forme výpočtovej kognitívnej supernovy (zvyčajne označovanej ako singularita, pozri moje pokrytie na odkaz tu).

Typ AI, na ktorý sa zameriavam, pozostáva z necitlivej AI, ktorú máme dnes. Ak by sme chceli divoko špekulovať o cítiaci AI, táto diskusia by sa mohla uberať radikálne iným smerom. Vnímajúca AI by mala mať ľudské kvality. Mali by ste zvážiť, že vnímajúca AI je kognitívnym ekvivalentom človeka, ktorý vám dáva rady. Navyše, keďže niektorí špekulujú, že by sme mohli mať superinteligentnú AI, je možné, že takáto AI by mohla byť inteligentnejšia ako ľudia (pre môj prieskum superinteligentnej AI ako možnosti pozri pokrytie tu). Všetci povedali, že tieto scenáre by urýchlili hodnotenie zdroja.

Nechajme veci viac pri zemi a zvážme dnešnú výpočtovú necitlivú AI.

Uvedomte si, že dnešná AI nie je schopná „myslieť“ akýmkoľvek spôsobom na rovnakej úrovni ako ľudské myslenie. Keď komunikujete s Alexou alebo Siri, konverzačné schopnosti sa môžu zdať podobné ľudským schopnostiam, ale realita je taká, že sú výpočtové a chýba im ľudské poznanie. Najnovšia éra AI vo veľkej miere využíva strojové učenie (ML) a hlboké učenie (DL), ktoré využíva porovnávanie výpočtových vzorov. To viedlo k systémom AI, ktoré vyzerajú ako ľudia. Medzitým dnes neexistuje žiadna umelá inteligencia, ktorá by mala zdanie zdravého rozumu, ani žiadny z kognitívnych zázrakov robustného ľudského myslenia.

Možno ste si vedomí toho, že keď sa rozbehla najnovšia éra AI, došlo k obrovskému výbuchu nadšenia z toho, čo niektorí dnes nazývajú AI pre dobro. Bohužiaľ, v pätách tohto tryskajúceho vzrušenia sme začali byť svedkami AI pre zlé. Napríklad sa ukázalo, že rôzne systémy na rozpoznávanie tváre založené na AI obsahujú rasové a rodové predsudky, o ktorých som diskutoval na odkaz tu.

Snahy brániť sa AI pre zlé aktívne prebiehajú. Okrem hlučného právne v snahe o zvládnutie previnenia existuje aj výrazný tlak na prijatie etiky AI, aby sa napravila odpornosť AI. Myšlienka je taká, že by sme mali prijať a podporiť kľúčové etické princípy AI pre vývoj a zavádzanie AI, aby sme podkopali AI pre zlé a súčasne ohlasovať a podporovať preferované AI pre dobro.

V súvislosti s tým som zástancom pokusu použiť AI ako súčasť riešenia problémov s AI a bojovať s ohňom ohňom týmto spôsobom myslenia. Mohli by sme napríklad vložiť etické komponenty AI do systému AI, ktorý bude monitorovať, ako zvyšok AI robí veci, a tak potenciálne zachytiť v reálnom čase akékoľvek diskriminačné snahy, pozri moju diskusiu na odkaz tu. Mohli by sme mať aj samostatný systém AI, ktorý funguje ako typ monitora etiky AI. Systém AI slúži ako dozorca na sledovanie a zisťovanie, kedy sa iná AI dostane do neetickej priepasti (pozri moju analýzu takýchto schopností na odkaz tu).

Celkovo možno povedať, že všeobecnou nádejou je, že zavedením zmyslu pre etické predpisy AI budeme môcť aspoň zvýšiť povedomie spoločnosti o tom, čo môže AI prospešne a nepriaznivo produkovať. Rozsiahlo som diskutoval o rôznych kolektívnych analýzach etických princípov AI, vrátane toho, že som sa zaoberal súborom navrhnutým výskumníkmi, ktorí skúmali a zhustili podstatu mnohých národných a medzinárodných etických zásad AI v článku s názvom „Globálna krajina etických zásad AI“ (zverejnená v príroda), a ktoré moje pokrytie skúma na odkaz tu, čo viedlo k tomuto kľúčovému zoznamu:

  • Priehľadnosť
  • Spravodlivosť a spravodlivosť
  • Neškodnosť
  • zodpovednosť
  • súkromia
  • dobročinnosť
  • Sloboda a autonómia
  • Verte
  • Udržateľnosť
  • dôstojnosť
  • Solidarita

Ako môžete priamo uhádnuť, pokúsiť sa určiť špecifiká, ktoré sú základom týchto princípov, môže byť mimoriadne ťažké. O to viac, snaha premeniť tieto široké princípy na niečo úplne hmatateľné a dostatočne podrobné na to, aby sa dali použiť pri vytváraní systémov AI, je tiež tvrdým orieškom. Celkovo je ľahké mávnuť rukou nad tým, čo sú to etické predpisy AI a ako by sa mali vo všeobecnosti dodržiavať, zatiaľ čo v kódovaní AI je oveľa komplikovanejšia situácia, keď musí ísť o skutočnú gumu, ktorá sa stretáva s vozovkou.

Princípy AI etiky majú využívať vývojári AI spolu s tými, ktorí riadia snahy o vývoj AI, a dokonca aj tí, ktorí v konečnom dôsledku nasadzujú a vykonávajú údržbu systémov AI. Všetky zainteresované strany počas celého životného cyklu vývoja a používania AI sa berú do úvahy v rámci dodržiavania zavedených noriem Etickej AI. Toto je dôležitý prvok, pretože zvyčajný predpoklad je, že „iba kóderi“ alebo tí, ktorí programujú AI, podliehajú dodržiavaniu etických pojmov AI. Ako už bolo spomenuté, na vymyslenie a nasadenie AI je potrebná dedina, v ktorej sa celá dedina musí vyznať a dodržiavať etické predpisy AI.

Možno budeme musieť pridať k vychvaľovaným zoznamom etiky umelej inteligencie, že musíme výslovne zvážiť a podniknúť zjavné kroky na zabránenie alebo aspoň výrazné zmiernenie bežné nehody že sa to môže stať. Tí, ktorí vyvíjajú AI, musia v tomto smere urobiť maximum. Tí, ktorí nasadzujú AI, musia urobiť to isté. Tí, ktorí používajú AI alebo sú jej nejakým spôsobom vystavení, by si mali dávať pozor a mali by sa mať na pozore pred možnosťou nehôd s umelou inteligenciou, ktoré zdanlivo nastanú.

Môžete byť v pokušení myslieť si, že do AI je možné zabudovať dostatok preventívnych opatrení, aby pravdepodobnosť nehody klesla na nulu. Pre tých, ktorí sú technici, je zvyčajná arogancia taká, že ak nejaká technika môže spôsobiť problém, iná technika problém určite vyrieši. Pokračujte v hádzaní ďalších a ďalších technológií, kým problém nezmizne.

No, tí, ktorí študovali systémovo orientované nehody, by mali tendenciu nesúhlasiť a zdvorilo sa ohradiť na predpokladanú technickú pompéznosť tým, že ponúknu stanovisko známe ako Swiss Cheese Model (SCM): „V SCM sú vrstvy bezpečnosti modelované ako plátky syr s otvormi, ktoré predstavujú slabé miesta v každej vrstve bezpečnosti. V priebehu času otvory menia tvar a pohybujú sa. Nakoniec, bez ohľadu na to, koľko plátkov syra (bezpečnostných vrstiev) je tam, otvory sa zarovnajú, čo umožní priamy prestrel cez všetky plátky syra (stane sa nehoda)“ (podľa skôr citovaného článku Roberta Williamsa a Romana Yampolského ).

Nechcem sa ponoriť do tejto vedľajšej tangenty o tom, či existuje alebo neexistuje zaručený spôsob, ako naprogramovať AI tak, aby úplne a vždy odvrátila akúkoľvek šancu nehody. Skúšajú sa všetky druhy matematických a výpočtových dokazovacích prístupov. Myslím si, že je rozumné a spravodlivé vyhlásiť, že dnes nemáme škálovateľnú pracovnú metódu ani technológie, ktoré dokážu zaručiť takú nulovú šancu, a navyše sme určite zaťažení tonami a tonami umelej inteligencie, ktorá sa vyrába. viem, že sa nesnažil dodržiavať takéto praktiky. Tento posledný bod je kľúčový, pretože aj keď dokážeme niečo vymyslieť v laboratóriu AI, škálovať to na milióny divokých a bezstarostných snáh o umelú inteligenciu, ktoré prebiehajú a ktoré sa budú aj naďalej objavovať, je zauzlený problém a pravdepodobne sa nevyrieši, aj keď výpočtový skúšobný stroj bude strieborný. guľka existovala.

Ďalší bod, o ktorom si myslím, že si zaslúži krátku zmienku, pozostáva z AI, ktorá sa v dôsledku zlomyseľných ľudských aktérov premieňa na robenie nevhodných činov. Nebudem zaraďovať tieto prípady do sféry nehôd AI. Pamätajte, že úvodná diskusia naznačila, že slovníková definícia nehody bola incidentom neúmyselný prírody. Ak sa ľudskému kybernetickému podvodníkovi podarí prinútiť systém AI robiť zlé veci, neklasifikujem túto AI ako nehodu. Verím, že s týmto predpokladom budete súhlasiť.

Vynára sa zaujímavá otázka, koľko rôznych nevhodných činov AI možno pripísať čisto nehode AI v porovnaní s úskočným činom kyberzločinca. Podľa niektorých existujúcich databáz hlásení incidentov AI sa zdá, že k nehodám AI dochádza častejšie ako k zlomyseľne vyvolaným incidentom, aj keď túto predstavu musíte brať s poriadnou dávkou soli. Hovorím to preto, že existuje veľké pokušenie nenahlásiť, kedy bol systém AI napadnutý, a možno byť o niečo ochotnejší nahlásiť, keď dôjde k nehode AI.

V súvislosti s nehodami AI musíme prediskutovať mimoriadne dôležité upozornenie.

Používanie hesla „nehody umelej inteligencie“ je vo všeobecnosti nežiaduce a spôsobí nám všetkým neporiadok, teda celú spoločnosť. Keď sa náhodou stane človeku nehoda, často krčíme plecami a súcitíme s osobou, ktorá mala nehodu. Zdá sa, že k slovu „nehoda“ pristupujeme tak, ako keby to znamenalo, že nikto nie je zodpovedný za to, čo sa stalo.

Vezmime si príklad, keď sa stanete dopravnou nehodou. Jedno auto sa pri pravotočivej zákrute rozkýva a nešťastnou náhodou vrazí do iného auta, ktoré išlo rovno. Sakra, bola to len nehoda a náhoda. Tí, ktorí sa na incidente nezúčastnili, možno nechajú vec skĺznuť, ak je udalosť formulovaná len ako nehoda, ktorá sa stala.

Mám však pocit, že keby ste sedeli v aute, ktoré dostalo náraz, neboli by ste tak súcitní s vodičom, ktorý urobil príliš širokú zákrutu. Váš názor by bol určite taký, že ten druhý vodič bol mizerný vodič a že k zrážke auta viedlo buď zdanlivo nezákonné alebo nerozumné vedenie vozidla. Označením incidentu za „nehodu“ je vodič, ktorý uviazol, teraz trochu v nevýhode, pretože sa zdá, že k tomu všetkému došlo len náhodou, a nie rukami vodiča, ktorý to pokazil.

V skutočnosti je slovo „nehoda“ tak plné rôznych významov, že vo všeobecnosti vládne štatistiky o autonehodách označujú vec ako zrážky áut alebo autonehody, namiesto toho, aby používali frázu autonehody. Nezdá sa, že zrážka s autom alebo zrážka s autom nemá žiadny vplyv na to, ako k incidentu došlo. Medzitým nás formulácia „autonehoda“ takmer privádza k myšlienke, že išlo o výstrelok osudu alebo akosi mimo ľudských rúk.

Môžete hojne vidieť, ako sa táto konotačná úvaha prejaví pri odkaze na nehody AI. Nechceme, aby sa vývojári AI skrývali za konotačným štítom, že AI len náhodou niekomu ublížila. To isté platí pre tie, ktoré nasadzujú AI. Môžete tvrdiť, že formulácia „nehody AI“ je takmer antropomorfizáciou AI, ktorá zvedie spoločnosť do omylu, aby umožnila ľuďom, ktorí boli v zákulisí AI, uniknúť zodpovednosti. Moju diskusiu o rastúcom význame držania ľudí zodpovedných za ich AI nájdete v mojej diskusii na adrese tento odkaz tu a tento odkaz tu.

Odteraz tu budem používať frázu nehôd AI, ale robím to neochotne a len preto, že je to konvenčný spôsob odkazovania na tento jav. Pokusy formulovať to inak bývajú bohužiaľ nafúknuté a nečítajú sa tak ľahko. Uistite sa, že hlášku interpretujete spôsobom, ktorý vás nespôsobí, aby ste sa pozreli iným smerom a neuvedomili si, že ľudia, ktorí sú základom AI, sú vinní, keď sa AI pokazí.

Aby sme pomohli ilustrovať pravdepodobný zmätok alebo zavádzajúce aspekty odkazovania sa na AI ako na nehody, môžeme sa vrátiť k mojim poznámkam o prevrhnutí vázy. Uvažujme o tomto príklade, ako to robí AI: „Tento problém súvisí s vecami, ktoré AI robí náhodou alebo ľahostajne. Čistiaci robot, ktorý prevracia vázu, je jedným z príkladov. Zložité prostredia majú toľko druhov „váz“, že je nepravdepodobné, že by sme ich mohli naprogramovať za všetky vedľajšie účinky“ (podľa článku Roberta Williamsa a Romana Yampolského).

Zdá sa, že systém AI, ktorý sa používa v domácnosti a potom „náhodne“ prevrhne vázu, naznačuje, že nikto by nemal byť obviňovaný z tohto nepriaznivého pôsobenia AI. Bola to len nehoda, niekto by mohol lamentovať. Na druhej strane by sme sa mali oprávnene pýtať, prečo systém AI nebol naprogramovaný tak, aby vo všeobecnosti zvládol situáciu s vázou. Aj keď vývojári umelej inteligencie nepredpokladali, že vázu ako takú tvoria predmety, s ktorými sa možno stretnúť, určite si môžeme položiť otázku, prečo neexistovalo nejaké zastrešujúce vyhýbanie sa objektom, ktoré by zabránilo systému umelej inteligencie zvrhnúť vázu (preto AI možno neklasifikovala vázu ako vázu, ale stále sa jej mohla vyhnúť ako zistiteľnému predmetu, ktorému sa treba vyhnúť).

Predpovedal som a stále predpovedám, že postupne smerujeme k obrovskej právnej bitke o objavenie sa systémov AI, ktoré sa dostanú do „nehôd AI“ a spôsobia určitú formu škody. Až doteraz spoločnosť nereagovala žiadnym väčším spôsobom na legálne potlačenie AI, ktorá je vyhodená na trh a má nepriaznivé dôsledky, či už úmyselne alebo neúmyselne. Dnešný rozbehnutý vlak AI, ktorý sa stal zlatou horúčkou nedomyslených výrobcov AI a tých, ktorí narýchlo zavádzajú AI, má práve teraz šťastie a zostáva relatívne nedotknutý občianskymi súdnymi procesmi a trestnými stíhaniami.

Právny odpor spojený s AI skôr či neskôr príde.

Pokračujeme, ako sa máme pokúsiť vyrovnať sa s nevyhnutnosťou takzvaných nehôd AI?

Jedna vec, ktorú môžeme urobiť hneď, je pokúsiť sa predvídať, ako sa môžu vyskytnúť nehody AI. Predvídaním nehôd AI sa môžeme aspoň snažiť navrhnúť prostriedky na ich obmedzenie alebo minimalizáciu pravdepodobnosti ich výskytu. Okrem toho sa môžeme pokúsiť umiestniť ochranné zábradlia, aby sa v prípade nehody s AI znížili šance na demonštratívne poškodenie.

Užitočný súbor faktorov, ktoré boli opísané v skôr citovanom výskumnom článku Pochopenie a predchádzanie zlyhaniam AI: Praktická príručka zahŕňa tieto vlastnosti (ako je citované z výskumnej práce):

  • Systém, ktorý je ovplyvnený výstupmi AI.
  • Časové oneskorenie medzi výstupmi AI a väčším systémom, pozorovateľnosť systému, úroveň ľudskej pozornosti a schopnosť operátorov opraviť nefunkčnosť AI.
  • Maximálne možné poškodenie pri zlom použití systémov, ktoré AI kontroluje.
  • Spojenie komponentov v blízkosti AI a zložitosť interakcií.
  • Medzera vedomostí o AI a iných použitých technológiách a energetická úroveň systému.

Stavil by som sa, že v tomto bode tejto obsiahlej diskusie túžite po niekoľkých názorných príkladoch, ktoré by mohli ďalej objasniť tému nehôd AI. Existuje špeciálny a určite populárny súbor príkladov, ktoré sú môjmu srdcu blízke. Vidíte, ako odborník na AI vrátane etických a právnych dôsledkov ma často žiadajú, aby som identifikoval realistické príklady, ktoré predstavujú dilemy etiky AI, aby bolo možné ľahšie pochopiť trochu teoretickú povahu tejto témy. Jednou z najviac evokujúcich oblastí, ktorá názorne prezentuje tento etický problém umelej inteligencie, je príchod skutočne samoriadiacich áut založených na AI. Bude to slúžiť ako praktický príklad použitia alebo príklad na rozsiahlu diskusiu na túto tému.

Tu je potom pozoruhodná otázka, ktorá stojí za zamyslenie: Osvetľuje príchod skutočne samoriadiacich áut založených na AI niečo o nástupe takzvaných nehôd AI a ak áno, čo to ukazuje?

Dovoľte mi chvíľu rozbaliť otázku.

Po prvé, všimnite si, že v skutočne samoriadiacom aute nie je žiadny ľudský vodič. Majte na pamäti, že skutočne samoriadiace autá sú poháňané systémom AI. Nie je potrebný ľudský vodič za volantom, ani neexistuje ustanovenie, aby vozidlo riadil človek. Pre moje rozsiahle a neustále pokrytie autonómnych vozidiel (AV) a najmä autonómnych áut viď odkaz tu.

Rád by som ďalej objasnil, čo sa myslí, keď hovorím o skutočne samoriadiacich autách.

Porozumenie úrovniam samoriadiacich automobilov

Pre vysvetlenie, skutočne samoriadiace autá sú tie, kde AI riadi auto úplne sama a pri riadení nie je žiadna asistencia človeka.

Tieto vozidlá bez vodiča sa považujú za úroveň 4 a úroveň 5 (pozri moje vysvetlenie na tento odkaz tu), zatiaľ čo auto, ktoré vyžaduje, aby sa ľudský vodič podieľal na riadení, sa zvyčajne považuje za úroveň 2 alebo úroveň 3. Autá, ktoré sa podieľajú na úlohe riadenia, sú opísané ako poloautonómne a zvyčajne obsahujú rôzne automatizované doplnky, ktoré sa označujú ako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 ešte nie je skutočné samoriadiace auto a ešte ani nevieme, či to bude možné dosiahnuť, ani ako dlho bude trvať, kým sa tam dostaneme.

Medzitým sa úsilie úrovne 4 postupne pokúša získať určitú trakciu podstupovaním veľmi úzkych a selektívnych testov na verejných cestách, hoci existuje polemika o tom, či by toto testovanie malo byť povolené ako také (v experimente sme všetci pokusnými králikmi na život a na smrť). ktoré sa odohrávajú na našich diaľniciach a vedľajších cestách, niektorí tvrdia, pozri moje spravodajstvo na tento odkaz tu).

Keďže poloautonómne automobily si vyžadujú vodiča, prijatie týchto typov automobilov sa nebude výrazne líšiť od riadenia konvenčných vozidiel, takže o tejto téme nie je samo o sebe veľa nových (ako vidíte, uvidíte) za okamih sa spravidla použijú nasledujúce body).

V prípade autonómnych automobilov je dôležité, aby verejnosť musela byť upozornená na rušivý aspekt, ktorý sa objavuje v poslednej dobe, a to napriek tomu, že napriek tým vodičom, ktorí neustále vysielajú svoje videá, ktoré zaspávajú za volantom automobilu úrovne 2 alebo 3 , musíme sa vyhnúť tomu, aby sme boli uvedení do omylu v presvedčenie, že vodič môže odvádzať svoju pozornosť od úlohy pri riadení čiastočne autonómneho vozidla.

Ste zodpovednou stranou za jazdné vlastnosti vozidla bez ohľadu na to, do akej miery by sa automatizácia mohla hodiť na úroveň 2 alebo úroveň 3.

Samoriadiace autá a incidenty AI

Pri vozidlách s vlastným riadením na úrovni 4 a 5 sa do úlohy vedenia vozidla nebude podieľať ľudský vodič.

Všetci cestujúci budú cestujúcimi.

AI robí jazdu.

Jedným z aspektov, o ktorých je potrebné okamžite diskutovať, je skutočnosť, že AI zapojená do dnešných systémov riadenia AI nie je vnímavá. Inými slovami, AI je celkom kolektív počítačového programovania a algoritmov a je nepochybne neschopný uvažovať rovnakým spôsobom ako ľudia.

Prečo je tento zvýšený dôraz na to, aby AI nebola vnímavá?

Pretože by som chcel zdôrazniť, že keď diskutujem o úlohe jazdného systému AI, nepripisujem AI ľudské vlastnosti. Uvedomte si, že v dnešnej dobe pretrváva nebezpečná tendencia k antropomorfizácii AI. Ľudia v podstate priraďujú dnešnému UI sentiment podobný človeku, a to aj napriek nepopierateľnému a nespochybniteľnému faktu, že zatiaľ taký AI neexistuje.

S týmto objasnením si môžete predstaviť, že systém riadenia umelej inteligencie nebude natívne nejako „vedieť“ o aspektoch riadenia. Vedenie vozidla a všetko, čo k tomu patrí, bude potrebné programovať ako súčasť hardvéru a softvéru samostatne riadeného automobilu.

Poďme sa ponoriť do nespočetného množstva aspektov, ktoré sa budú hrať na túto tému.

Po prvé, je dôležité si uvedomiť, že nie všetky autá s umelou inteligenciou sú rovnaké. Každá automobilka a technologická firma s vlastným pohonom pristupuje k navrhovaniu samoriadiacich áut. Preto je ťažké urobiť rozsiahle vyhlásenia o tom, čo AI riadiace systémy urobia alebo neurobia.

Okrem toho, kedykoľvek sa uvádza, že riadiaci systém AI nerobí konkrétne veci, neskôr to môžu predbehnúť vývojári, ktorí počítač v skutočnosti naprogramujú tak, aby to urobil. Krok za krokom sa systémy riadenia AI postupne vylepšujú a rozširujú. Existujúce obmedzenie dnes už nemusí existovať v budúcej iterácii alebo verzii systému.

Verím, že poskytne dostatočnú litániu výhrad, ktoré sú základom toho, o čom sa chystám hovoriť.

Teraz sme pripravení na to, aby sme sa hlboko ponorili do samoriadiacich áut a možností etických AI, ktoré so sebou prinášajú príchod takzvaných nehôd AI.

Predstavte si, že po uliciach vášho okolia premáva samojazdiace auto založené na AI a zdá sa, že jazdí bezpečne. Najprv ste venovali osobitnú pozornosť každému, keď sa vám podarilo zahliadnuť samoriadiace auto. Autonómne vozidlo vynikalo regálom s elektronickými senzormi, ktoré zahŕňali videokamery, radarové jednotky, zariadenia LIDAR a podobne. Po mnohých týždňoch samoriadiaceho auta, ktoré križovalo vašu komunitu, si to teraz sotva všimnete. Pokiaľ ide o vás, je to len ďalšie auto na už aj tak rušných verejných cestách.

Aby ste si nemysleli, že je nemožné alebo nepravdepodobné zoznámiť sa so samoriadiacimi autami, často som písal o tom, ako si miesta, ktoré sú v rámci skúšok samoriadiacich áut, postupne zvykli na vyšperkované vozidlá. Mnohí z miestnych obyvateľov sa nakoniec preorientovali z dychtivého cikania s otvorenými ústami a teraz vydávajú rozsiahle zívanie nudy, aby boli svedkami tých kľukatých samoriadiacich áut.

Pravdepodobne hlavným dôvodom, prečo by si mohli všimnúť autonómne vozidlá, je faktor podráždenia a podráždenia. Bežné jazdné systémy AI zabezpečujú, že autá dodržiavajú všetky rýchlostné limity a pravidlá cestnej premávky. Pre hektických ľudských vodičov v ich tradičných autách poháňaných ľuďmi vás občas naštve, keď uviaznu za prísne zákonnými samoriadiacimi autami založenými na AI.

To je niečo, na čo si všetci musíme zvyknúť, či už oprávnene alebo nesprávne.

Späť k našej rozprávke.

Jedného dňa sa samoriadiace auto stane nehodou.

Pri pravotočivej zákrute AI systém jazdy široko otočil autonómne vozidlo a narazilo do auta poháňaného ľuďmi. Ľudské auto išlo rovno v správnom jazdnom pruhu. Ľudský vodič nemal žiadnu konkrétnu príležitosť uhnúť alebo vyhnúť sa zrážke. Navyše, samoriadiace auto nič neupozorňovalo ani nenaznačovalo, že sa chystá široko odbočiť doprava.

Je to nehoda?

Určite môžeme povedať, že je to zahrnuté v rubrike nehody AI. Základom takéhoto tvrdenia je, že za volantom samoriadiaceho auta bol systém riadenia AI. Z akýchkoľvek dôvodov sa AI rozhodla urobiť široký švih pri odbočovaní doprava. Výsledkom bolo, že samoriadiace auto narazilo do auta riadeného ľuďmi.

Spomeňte si na predchádzajúcu diskusiu o konotáciách spojených so slovom „nehoda“ a uvidíte, ako sa takéto podtóny prejavia v tomto scenári. Pamätajte tiež, že sme diskutovali o prípade ľudského vodiča, ktorý prudko odbočil doprava a narazil do auta, ktoré riadili ľudia. Uvedomili sme si, že predstava, že tento čin je „nehoda“, je zavádzajúca a mätúca. Ľudský vodič, ktorý urobil široký švih, sa mohol skryť za myšlienku, že k nehode došlo len zdanlivo náhodou alebo vrtochmi osudu.

Namiesto označenia scenára ako „nehody s umelou inteligenciou“ v prípade, že samoriadiace auto založené na umelej inteligencii sa rozbehlo a narazilo do auta poháňaného ľuďmi, možno by sme mali povedať, že išlo o autonehodu alebo kolíziu s vlastným autom. riadiace auto a auto poháňané ľuďmi. Potom sa môžeme zaobísť bez zbytočného zmätku, že ide o nehodu nepoznateľných prostriedkov.

Aká by bola podľa vás reakcia verejnosti na incident?

No, ak sa automobilka alebo samojazdiaca technologická firma môže držať označenia veci ako nehody, možno sa im podarí obísť potenciálny odpor zo strany komunity. Pocit sympatií k nehodám by sa mohol preniesť na konkrétnu okolnosť. Viac o tom, ako budú mestá, okresy a predstavitelia štátov potenciálne reagovať na incidenty s autonómnymi vozidlami AI, nájdete v diskusii o Harvardskej štúdii, ktorú som spoluviedol a ako je opísané na odkaz tu.

Ak je situácia jasne opísaná ako autonehoda alebo kolízia, možno by to umožnilo uvedomiť si, že za incident môže niekto alebo niečo. Prudká reakcia by mohla byť, že zodpovednosť bude braná na AI. Ide o to, že kým alebo ak sa niekedy rozhodneme pomazať AI za osobu, ktorá má zdanie právnickej osoby, nebudete môcť pripísať zodpovednosť na AI ako takú (pozri moju diskusiu o AI a právnickej osobe na odkaz tu).

Môžeme skontrolovať systém riadenia AI, aby sme sa pokúsili zistiť, čo viedlo k zdanlivo nevhodnej jazde a následnej autonehode. To však neznamená, že AI bude braná na zodpovednosť. Zodpovednými stranami sú vývojári AI, prevádzkovateľ vozového parku samoriadiaceho vozidla a ďalší. Zahŕňam aj ostatných, pretože existuje možnosť, že mesto môže byť čiastočne zodpovedné za dizajn rohu, kde došlo k obratu. Predpokladajme navyše, že chodec vybehol zo zákruty a AI systém riadenia sa rozhodol vyhnúť sa osobe, a predsa sa dostal do autonehody.

A tak ďalej.

záver

Chceli by sme vedieť, čo AI výpočtovo počítala a na čo bola naprogramovaná. Robila AI tak, ako bola zakódovaná? Možno, že AI narazila na chybu alebo chybu v programovaní, čo neospravedlňuje akcie, ale poskytuje viac informácií o tom, ako k havárii došlo.

Aké zábradlia AI boli naprogramované do systému riadenia AI? Ak by tam boli zvodidlá, chceli by sme zistiť, prečo sa zdalo, že nezabránia zrážke auta. Možno sa systém riadenia AI mohol zastaviť a nie odbočiť. Chceli by sme vedieť, aké alternatívy AI výpočtovo posúdila v priebehu incidentu.

Okrem toho, že sa dostaneme k podstate konkrétneho incidentu, ďalšou oprávnenou pochybnosťou je, či má systém riadenia AI chybu alebo iný zabudovaný aspekt, ktorý spôsobí podobné druhy nepriaznivých činov. V podstate by tento incident mohol byť výrečným indikátorom toho, že ešte niečo príde. Ako sa použili počítačové simulácie jazdných situácií na pokusy a predvídanie tohto typu výziev systému AI? Uskutočnili sa dostatočné testy jazdy na vozovke na odhalenie problémov s AI, ktoré mohli viesť k autonehode?

Tento scenár poukazuje na sporný hlavolam, ktorému čelí vznik samoriadiacich áut založených na AI.

Ide to takto.

Na jednej strane existuje spoločenská túžba urýchlene prijať samoriadiace autá v dôsledku nádeje, že systémy riadenia AI budú rovnako bezpečné alebo možno bezpečnejšie ako ľudskí vodiči. Len v Spojených štátoch máme v súčasnosti takmer 40,000 2.5 ľudských úmrtí ročne v dôsledku dopravných nehôd a približne XNUMX milióna ľudských zranení. Analýzy naznačujú, že značnú časť týchto nehôd možno pripísať ľudskej chybe, ako je jazda pod vplyvom alkoholu, jazda v roztržitom stave atď. (pozri moje hodnotenie takýchto štatistík na odkaz tu).

Riadiace systémy AI nebudú piť a jazdiť. Nepotrebujú oddych a za volantom sa neopotrebujú. Predpokladom je, že zavedením samoriadiacich áut ako životaschopného spôsobu dopravy môžeme znížiť počet ľudských vodičov. To by zase malo znamenať, že celkovo znížime počet ročných ľudských úmrtí a zranení pri autonehodách.

Niektorí experti povedali, že skončíme s nulovými úmrtiami a nulovými zraneniami a tie samoriadiace autá budú údajne nebúrateľné, ale toto je úplne absurdný a úplne falošný súbor očakávaní. Vysvetlil som, prečo je to také neúprimné odkaz tu.

V každom prípade predpokladajme, že dôjde k určitému množstvu dopravných nehôd, ktorých sa zúčastnia samoriadiace autá. Predpokladajme tiež, že tieto autonehody budú mať určitý počet úmrtí a zranení. Otázkou je, či sme ako spoločnosť vôbec ochotní tolerovať takéto prípady. Niektorí hovoria, že ak sa čo i len jedna smrteľná nehoda alebo jedno zranenie stane v dôsledku skutočne samoriadiacich áut, celá súprava a kaboodle by sa mali zatvoriť.

Protichodné hľadisko je, že ak zachránené životy znižujú ročné počty, mali by sme naďalej podporovať nástup samoriadiacich áut a nereagovať takýmto nelogickým spôsobom. Budeme musieť akceptovať predpoklad, že určité množstvo smrteľných úrazov a zranení bude stále existovať, dokonca aj pri autách s vlastným pohonom, a predsa si uvedomiť, že ak sa ročný počet zníži, naznačuje to, že sme na správnej ceste.

Samozrejme, niektorí tvrdia, že na našich verejných cestách by sme nemali mať samoriadiace autá, kým nebudú povolené na takéto použitie v dôsledku rozsiahlych a vyčerpávajúcich počítačových simulácií alebo prostredníctvom súkromného testovania na uzavretej dráhe. Protiargumentom je, že jediný životaschopný a najrýchlejší spôsob, ako dostať samoriadiace autá do prevádzky, je použitie verejných ciest a že akékoľvek oneskorenie pri zavádzaní samoriadiacich áut inak umožní pokračovať v strašných počtoch havárie áut poháňaných ľuďmi. Túto diskusiu som obšírnejšie popísal vo svojich stĺpcoch a vyzývam čitateľov, aby sa na tieto diskusie pozreli, aby získali úplný prehľad o perspektívach tejto kontroverznej záležitosti.

Poďme to zatiaľ zbaliť.

Nehody s AI sa stanú. Musíme odolať nutkaniu chápať nehodu AI ako zdanlivú náhodou a ergo klamlivo nechajte výrobcov a tých, ktorí nasadzujú AI, kategoricky mimo.

Je tu ďalší zvrat, ktorý vám nechávam ako poslednú zaujímavú myšlienku pre váš deň.

Komik Dane Cook údajne povedal tento vtip o autonehodách: „Pred pár dňami som mal autonehodu. Nie moja chyba. Aj keď to nie je vaša chyba, druhá osoba vystúpi z auta a pozrie sa na vás, akoby to bola vaša chyba: Prečo ste zastavili na červenú a nechali ste ma zraziť na 80!“

Tam, kde sa zvrat dostáva do popredia, je možnosť, že systém umelej inteligencie sa môže rozhodnúť trvať na tom, že keď dôjde k nehode s umelou inteligenciou, ktorá zahŕňa túto konkrétnu umelú inteligenciu, umelá inteligencia propaguje, že incident zavinil človek a určite nie umelá inteligencia. Mimochodom, toto by mohla byť veľká pravda a človek by sa mohol snažiť urobiť obetného baránka AI tvrdením, že to bola chyba AI.

Alebo sa možno AI snaží obetovať človeka.

Viete, AI, ktorú vymyslíme, môže byť týmto spôsobom zradná, či už náhodou alebo nie.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- šoférovať aj autá/