Etika AI zvoní na poplach o hroziacom spektre predsudkov AI v obrovskom globálnom meradle, najmä poháňané hroziacimi plne autonómnymi systémami

Platón preslávil výrok, že dobré rozhodnutie je založené na vedomostiach a nie na číslach.

Zdá sa, že tento prenikavý pohľad na dnešnú umelú inteligenciu (AI) je úžasne prezieravý.

Vidíte, napriek hulákajúcim titulkom, ktoré v súčasnosti hlásajú, že umelá inteligencia sa nejakým spôsobom dostala k rozumu a stelesňuje ľudské poznanie a uvažovanie, uvedomte si, že táto prehnaná hyperbola umelej inteligencie je zákerným varovaním, pretože pri dnešnom rozhodovaní o algoritmoch sa stále spoliehame na lámanie čísel (ADM ), ako to vykonávajú systémy AI. Dokonca aj vychvaľované strojové učenie (ML) a hlboké učenie (DL) pozostávajú z porovnávania výpočtových vzorov, čo znamená, že čísla sú stále jadrom vznešeného používania ML/DL.

Nevieme, či je možné dosiahnuť umelú inteligenciu. Môže byť, nemusí byť. Nikto nemôže s istotou povedať, ako to môže vzniknúť. Niektorí veria, že budeme postupne zlepšovať naše výpočtové úsilie AI tak, že sa spontánne objaví určitá forma vnímania. Iní si myslia, že AI by sa mohla dostať do akejsi výpočtovej supernovy a dosiahnuť vnímavosť takmer sama od seba (zvyčajne označovaná ako singularita). Viac o týchto teóriách o budúcnosti AI nájdete v mojej správe na adrese odkaz tu.

Nerobme si teda srandu a falošne verme, že súčasná AI je schopná myslieť ako ľudia. Predpokladám, že sa potom dostáva do popredia otázka týkajúca sa Platónovej poznámky, či môžeme mať dobré rozhodnutia založené na výpočtovej AI a nie na vnímajúcej AI. Možno vás prekvapí, že by som tvrdil, že každodenné systémy umelej inteligencie môžu skutočne prijímať dobré rozhodnutia.

Druhou stranou tejto mince je, že môžeme mať aj každodenné systémy AI, ktoré robia zlé rozhodnutia. Zlé rozhodnutia. Rozhodnutia, ktoré sú plné nežiaducich zaujatostí a nerovností. Možno ste si vedomí toho, že keď sa rozbehla najnovšia éra AI, došlo k obrovskému výbuchu nadšenia z toho, čo niektorí dnes nazývajú AI pre dobro. Bohužiaľ, v pätách tohto tryskajúceho vzrušenia sme začali byť svedkami AI pre zlé. Napríklad sa ukázalo, že rôzne systémy na rozpoznávanie tváre založené na AI obsahujú rasové a rodové predsudky, o ktorých som diskutoval na odkaz tu.

Snahy brániť sa AI pre zlé aktívne prebiehajú. Okrem hlučného právne v snahe o zvládnutie previnenia existuje aj výrazný tlak na prijatie etiky AI, aby sa napravila odpornosť AI. Myšlienka je taká, že by sme mali prijať a podporiť kľúčové etické princípy AI pre vývoj a zavádzanie AI, aby sme podkopali AI pre zlé a súčasne ohlasovať a podporovať preferované AI pre dobro.

Moje rozsiahle pokrytie etiky AI a etickej AI nájdete na tento odkaz tu a tento odkaz tu, Len aby sme vymenovali niekoľko.

V tejto diskusii by som rád poukázal na obzvlášť znepokojujúci aspekt AI, nad ktorým ľudia v etike AI právom nariekajú a snažia sa o ňom zvýšiť povedomie. Na vytriezvenie a znepokojenie je v skutočnosti celkom jednoduché poukázať.

Tu je: Umelá inteligencia má potenciál v reálnom svete propagovať predsudky preniknuté AI v alarmujúcom globálnom meradle.

A keď hovorím „v rozsahu“, preukázateľne to znamená celosvetový masívny rozsah. Obrovská mierka. Váha, ktorá ide mimo váhy.

Predtým, ako sa ponorím do toho, ako bude prebiehať toto škálovanie predsudkov pohltených AI, uistime sa, že všetci máme zdanie toho, ako môže AI začleniť neprimerané predsudky a nerovnosti. Znova si pripomeňme, že nejde o vnímavú odrodu. To všetko je výpočtový kaliber.

Môžete byť zmätení, ako by AI mohla naplniť rovnaké druhy nepriaznivých predsudkov a nerovností ako ľudia. Máme tendenciu myslieť si, že AI je úplne neutrálna, nezaujatá, jednoducho stroj, ktorý nemá žiadne emocionálne ovplyvňovanie a zlé myslenie, aké môžu mať ľudia. Jeden z najbežnejších spôsobov, ako AI upadne do neistoty a nespravodlivosti, nastáva pri používaní strojového učenia a hlbokého učenia, čiastočne v dôsledku spoliehania sa na zhromaždené údaje o tom, ako sa ľudia rozhodujú.

Dovoľte mi chvíľu na vypracovanie.

ML/DL je forma porovnávania výpočtových vzorov. Zvyčajný prístup je taký, že zhromažďujete údaje o úlohe rozhodovania. Dáta vložíte do počítačových modelov ML/DL. Tieto modely sa snažia nájsť matematické vzorce. Po nájdení takýchto vzorov, ak sa nájdu, systém AI potom použije tieto vzory pri stretnutí s novými údajmi. Po predložení nových údajov sa na vyvodenie aktuálneho rozhodnutia použijú vzory založené na „starých“ alebo historických údajoch.

Myslím, že viete hádať, kam to smeruje. Ak ľudia, ktorí sa rozhodovali podľa vzoru, začlenili do seba nepriaznivé predsudky, je pravdepodobné, že údaje to odrážajú jemným, ale významným spôsobom. Výpočtové porovnávanie vzorov Machine Learning alebo Deep Learning sa jednoducho pokúsi zodpovedajúcim spôsobom matematicky napodobniť údaje. Neexistuje žiadne zdanie zdravého rozumu alebo iných vnímavých aspektov modelovania vytvoreného AI ako takého.

Okrem toho si vývojári AI nemusia uvedomiť, čo sa deje. Tajomná matematika v ML/DL môže sťažiť odhalenie teraz skrytých predsudkov. Oprávnene by ste dúfali a očakávali, že vývojári AI budú testovať potenciálne skryté predsudky, hoci je to zložitejšie, ako by sa mohlo zdať. Existuje solídna šanca, že aj pri relatívne rozsiahlom testovaní budú v modeloch zhody vzorov ML/DL stále zakomponované odchýlky.

Do istej miery by ste mohli použiť známe alebo neslávne známe príslovie o odpadkoch do odpadu. Ide o to, že je to skôr podobné zaujatostiam – in, ktoré sa zákerne naplnia, keď sa predsudky ponoria do AI. Algoritmus rozhodovania alebo ADM AI je axiomaticky zaťažený nerovnosťami.

Nie dobré.

To nás privádza k otázke zaujatosti preniknutých AI, keď je v mierke.

Najprv sa pozrime na to, ako môžu ľudské predsudky vytvárať nerovnosti. Spoločnosť, ktorá poskytuje hypotekárne úvery, sa rozhodne najať si hypotekárneho agenta. Agent má kontrolovať žiadosti spotrebiteľov, ktorí chcú získať úver na bývanie. Po posúdení žiadosti agent rozhodne o poskytnutí alebo zamietnutí úveru. Brnkačka.

Pre diskusiu si predstavme, že ľudský pôžičkový agent dokáže analyzovať 8 pôžičiek za deň, pričom kontrola trvá približne jednu hodinu. Za päťdňový pracovný týždeň vykoná agent asi 40 hodnotení pôžičiek. Ročne agent zvyčajne vykoná približne 2,000 XNUMX recenzií pôžičiek, či už dáva alebo berie trochu.

Spoločnosť chce zvýšiť objem úverových previerok, preto si najme ďalších 100 úverových agentov. Predpokladajme, že všetky majú približne rovnakú produktivitu a že to znamená, že teraz dokážeme spracovať približne 200,000 2,000 pôžičiek ročne (pri rýchlosti XNUMX XNUMX hodnotení pôžičiek ročne na agenta). Zdá sa, že sme naozaj zrýchlili spracovanie žiadostí o úver.

Ukázalo sa, že spoločnosť navrhuje systém AI, ktorý môže v podstate vykonávať rovnaké kontroly pôžičiek ako ľudskí agenti. AI beží na počítačových serveroch v cloude. Prostredníctvom cloudovej infraštruktúry môže spoločnosť ľahko pridať viac výpočtového výkonu, aby sa prispôsobila akémukoľvek objemu recenzií úverov, ktoré môžu byť potrebné.

S existujúcou konfiguráciou AI môžu vykonať 1,000 24 hodnotení pôžičiek za hodinu. To sa môže stať aj 7×9. AI nepotrebuje žiadnu dovolenku. Žiadne prestávky na obed. Umelá inteligencia funguje XNUMX hodín denne bez škrípania o prepracovanosti. Povieme, že týmto približným tempom dokáže AI spracovať takmer XNUMX miliónov žiadostí o úver ročne.

Všimnite si, že sme prešli zo 100 ľudských agentov, ktorí by mohli poskytnúť 200,000 9 pôžičiek ročne, a mnohonásobne sme preskočili na oveľa vyšší počet XNUMX miliónov recenzií ročne prostredníctvom systému AI. Výrazne sme zintenzívnili spracovanie žiadostí o úver. Niet pochýb o tom.

Pripravte sa na kopanec, pri ktorom možno spadnete zo stoličky.

Predpokladajme, že niektorí z našich ľudských agentov robia svoje rozhodnutia o pôžičke na základe nežiaducich zaujatostí. Niektorí možno pripisujú rasovým faktorom kľúčovú úlohu pri rozhodovaní o pôžičke. Možno niektorí používajú pohlavie. Iní používajú vek. A tak ďalej.

Koľko z 200,000 10 ročných preskúmaní pôžičiek sa robí pod nesprávnym pohľadom nepriaznivých predsudkov a nerovností? Možno 20,000 %, čo je približne 50 100,000 žiadostí o úver. Čo je ešte horšie, predpokladajme, že ide o XNUMX % žiadostí o pôžičku, pričom v takom prípade je ročne dosť znepokojujúcich XNUMX XNUMX prípadov nesprávneho rozhodnutia o pôžičke.

To je zlé. Ale musíme ešte zvážiť ešte desivejšiu možnosť.

Predpokladajme, že AI má skrytú zaujatosť, ktorá pozostáva z faktorov, ako sú rasa, pohlavie, vek a podobne. Ak 10 % ročných úverových analýz podlieha tejto nevýhode, máme 900,000 100 žiadostí o úver, ktoré sú nesprávne vybavované. To je oveľa viac, ako by mohli ľudskí agenti urobiť, predovšetkým jednoducho kvôli objemovým aspektom. Tých 200,000 agentov, ak by všetci robili nespravodlivé hodnotenie, by to mohlo urobiť nanajvýš na 9,000,000 XNUMX ročných hodnoteniach pôžičiek. Umelá inteligencia by mohla urobiť to isté v oveľa veľkom rozsahu XNUMX XNUMX XNUMX ročných recenzií.

Och!

Toto je skutočne zaujatosť AI v obrovskom rozsahu.

Keď sú v systéme umelej inteligencie zakomponované nepriaznivé predsudky, to isté škálovanie, ktoré sa zdalo výhodné, sa teraz obráti na hlavu a stáva sa monštruózne očarujúcim (a znepokojujúcim) výsledkom škálovania. Na jednej strane môže AI prospešne zvládnuť viac ľudí, ktorí žiadajú o úvery na bývanie. Navonok to vyzerá ohromne AI pre dobro. Mali by sme sa potľapkať po pleci, že pravdepodobne zvyšujeme šance, že ľudia dostanú potrebné pôžičky. Medzitým, ak má umelá inteligencia vložené predsudky, škálovanie bude ohromne zlý výsledok a my sa ocitneme smutne uviaznutí v AI pre zlév skutočne masovom meradle.

Povestný dvojsečný meč.

AI môže radikálne zvýšiť prístup k rozhodovaniu pre tých, ktorí hľadajú požadované služby a produkty. Už žiadne prekážku práce s obmedzenou ľudskou silou. Vynikajúce! Druhou hranou meča je, že ak AI obsahuje zlo, ako sú skryté nerovnosti, rovnaké masívne škálovanie vyhlási toto nevhodné správanie v nepredstaviteľnom rozsahu. Rozčuľujúce, nespravodlivé, hanebné a nemôžeme dovoliť, aby spoločnosť padla do takej škaredej priepasti.

Každý, kto si lámal hlavu nad tým, prečo sa musíme zamyslieť nad dôležitosťou etiky AI, by si teraz mal uvedomiť, že fenomén škálovania AI je sakramentsky dôležitým dôvodom na presadzovanie etickej AI. Poďme sa na chvíľu stručne zamyslieť nad niektorými kľúčovými pravidlami etiky AI, aby sme ilustrovali, na čo by sa mal každý, kto vytvára, pracuje alebo používa AI, zamerať zásadne.

Napríklad, ako uvádza Vatikán v Rím vyzýva na etiku AI a ako som sa podrobne venoval odkaz tuToto je ich identifikovaných šesť základných etických princípov AI:

  • transparentnosť: V zásade musia byť systémy AI vysvetliteľné
  • začlenenie: Potreby všetkých ľudských bytostí musia byť brané do úvahy, aby z toho mohol mať úžitok každý, a aby všetkým jednotlivcom mohli byť ponúknuté najlepšie možné podmienky na sebavyjadrenie a rozvoj.
  • odpovedá: Tí, ktorí navrhujú a nasadzujú používanie AI, musia postupovať zodpovedne a transparentne
  • nestrannosť: Nevytvárajte ani nekonajte podľa zaujatosti, čím si zabezpečíte spravodlivosť a ľudskú dôstojnosť
  • Spoľahlivosť: Systémy AI musia byť schopné spoľahlivo fungovať
  • Bezpečnosť a súkromie: Systémy AI musia fungovať bezpečne a rešpektovať súkromie používateľov.

Ako uviedlo americké ministerstvo obrany (DoD) vo svojom Etické princípy používania umelej inteligencie a ako som sa podrobne venoval odkaz tuToto je ich šesť základných etických princípov AI:

  • Zodpovedný: Personál ministerstva obrany bude uplatňovať primeranú úroveň úsudku a starostlivosti, pričom zostane zodpovedný za vývoj, nasadenie a používanie schopností AI.
  • Spravodlivé: Ministerstvo podnikne premyslené kroky, aby minimalizovalo neúmyselné skreslenie schopností AI.
  • Vysledovateľné: Schopnosti umelej inteligencie ministerstva sa vyvinú a rozmiestnia tak, aby príslušní pracovníci primerane rozumeli technológiám, vývojovým procesom a prevádzkovým metódam použiteľným na schopnosti umelej inteligencie, a to aj s transparentnými a kontrolovateľnými metodológiami, zdrojmi údajov a návrhovým postupom a dokumentáciou.
  • spoľahlivosť: Schopnosti umelej inteligencie ministerstva budú mať explicitné, dobre definované využitie a bezpečnosť, zabezpečenie a efektívnosť takýchto schopností bude predmetom testovania a zabezpečenia v rámci týchto definovaných použití počas celého životného cyklu.
  • Riaditeľné: Ministerstvo navrhne a skonštruuje schopnosti AI tak, aby plnili zamýšľané funkcie, pričom majú schopnosť odhaliť a vyhnúť sa neúmyselným následkom a schopnosť odpojiť alebo deaktivovať nasadené systémy, ktoré prejavujú neúmyselné správanie.

Diskutoval som aj o rôznych kolektívnych analýzach etických princípov AI, vrátane toho, že som sa zaoberal súborom navrhnutým výskumníkmi, ktorí preskúmali a zhrnuli podstatu mnohých národných a medzinárodných etických zásad AI v článku s názvom „Globálna krajina etických zásad AI“ (zverejnená v príroda), a ktoré moje pokrytie skúma na odkaz tu, čo viedlo k tomuto kľúčovému zoznamu:

  • Priehľadnosť
  • Spravodlivosť a spravodlivosť
  • Neškodnosť
  • zodpovednosť
  • súkromia
  • dobročinnosť
  • Sloboda a autonómia
  • Verte
  • Udržateľnosť
  • dôstojnosť
  • Solidarita

Ako môžete priamo uhádnuť, pokúsiť sa určiť špecifiká, ktoré sú základom týchto princípov, môže byť veľmi ťažké. O to viac, snaha premeniť tieto široké princípy na niečo úplne hmatateľné a dostatočne podrobné na to, aby sa dali použiť pri vytváraní systémov AI, je tiež tvrdým orieškom. Celkovo je ľahké mávnuť rukou nad tým, čo sú to etické predpisy AI a ako by sa mali vo všeobecnosti dodržiavať, zatiaľ čo je to oveľa komplikovanejšia situácia, keď kódovanie AI musí byť skutočná guma, ktorá sa stretáva s vozovkou.

Princípy etiky AI majú používať vývojári AI spolu s tými, ktorí riadia úsilie o vývoj AI, a dokonca aj tí, ktorí v konečnom dôsledku nasadzujú a vykonávajú údržbu systémov AI. Všetky zainteresované strany počas celého životného cyklu vývoja a používania AI sa zohľadňujú v rámci dodržiavania zavedených noriem Etickej umelej inteligencie. Toto je dôležitý bod, pretože zvyčajným predpokladom je, že „iba kóderi“ alebo tí, ktorí programujú AI, podliehajú etike AI. Uvedomte si, že na vymyslenie a nasadenie AI je potrebná dedina. Kvôli čomu musí celá dedina držať palce ohľadom etiky AI.

Ako funguje škálovanie predsudkov posiatych AI

Teraz, keď som si uvedomil, že AI môže obsahovať odchýlky, sme pripravení preskúmať niektoré z dôvodov, prečo je škálovanie AI také rušivé.

Zvážte tento základný zoznam desiatich základných dôvodov:

  1. Ľahko replikovateľné
  2. Minimálne náklady na rozsah
  3. Strašne konzistentné
  4. Nedostatok sebareflexie
  5. Slepá poslušnosť
  6. Nenakláňa ruku
  7. Príjemca nič netušiaci
  8. Má tendenciu nepodnecovať provokáciu
  9. Falošná aura férovosti
  10. Ťažko vyvrátiť

Stručne preskúmam každý z týchto kľúčových bodov.

Keď sa pokúsite zväčšiť ľudskú prácu, je pravdepodobné, že to bude nesmierne komplikované. Musíte nájsť a najať ľudí. Musíte ich vycvičiť, aby túto prácu zvládli. Musíte ich zaplatiť a brať do úvahy ľudské túžby a potreby. Porovnajte to so systémom AI. Vyvíjate ho a uvádzate do používania. Okrem určitého množstva prebiehajúcej údržby AI si môžete sadnúť a nechať ju nekonečne pracovať.

To znamená, že AI sa ľahko replikuje. Môžete pridať viac výpočtového výkonu, ako si to môže vyžadovať úloha a objem (nenajímate ani neprepúšťate). Globálne použitie sa vykonáva stlačením tlačidla a dosahuje sa celosvetovou dostupnosťou internetu. Zväčšenie predstavuje minimálne náklady v porovnaní s podobným postupom s ľudskou prácou.

Ľudská práca je notoricky nekonzistentná. Keď máte veľké tímy, máte skutočnú bonboniéru, v ktorej nikdy neviete, čo môžete mať na rukách. Systém AI bude pravdepodobne vysoko konzistentný. Opakuje stále tie isté činnosti, pričom zakaždým je v podstate rovnaký ako ten predchádzajúci.

Za normálnych okolností by sme si vychutnali konzistenciu AI. Ak sú ľudia náchylní k zaujatostiam, vždy budeme mať časť našej ľudskej práce, ktorá zablúdi. AI, ak by bola vo svojej konštrukcii a výpočtovom úsilí čisto nezaujatá, by bola oveľa konzistentnejšia. Problém je však v tom, že ak má AI skryté predsudky, konzistencia je teraz bolestivo odporná. Je pravdepodobné, že zaujaté správanie sa bude dôsledne vykonávať znova a znova.

Ľudia by snáď mali tušenie sebareflexie a možno by sa pristihli pri zaujatých rozhodnutiach. Nehovorím, že by to tak urobili všetci. Tiež nehovorím, že tí, ktorí sa chytia, nutne napravia svoje chyby. V každom prípade by sa aspoň niektorí ľudia niekedy opravili.

Je nepravdepodobné, že AI bude mať akúkoľvek formu výpočtovej sebareflexie. To znamená, že AI stále robí to, čo robí. Zdanlivo by bola nulová šanca, že AI zistí, že sa dostáva do konfliktu s kapitálom. Ako už bolo povedané, opísal som určité úsilie, ako sa s tým vysporiadať, ako napríklad budovanie komponentov etiky AI v rámci AI (pozri odkaz tu) a navrhnutie AI, ktorá monitoruje inú AI, aby rozpoznala neetické aktivity AI (pozri odkaz tu).

Bez akejkoľvek sebareflexie je AI tiež pravdepodobne v podstate slepá poslušnosť voči čomukoľvek, čo dostala. Ľudia nemusia byť takí poslušní. Je pravdepodobné, že niektorí ľudia, ktorí vykonávajú nejakú úlohu, sa budú pýtať, či ich možno nenavádzajú na územie nerovnosti. Mali by tendenciu odmietať neetické príkazy alebo možno ísť cestou informátorov (pozri moje pokrytie na adrese tento odkaz tu). Nečakajte, že každodenná súčasná AI bude nejako spochybňovať svoje programovanie.

Ďalej sa obrátime na tých, ktorí používajú AI. Ak ste hľadali pôžičku na bývanie a hovorili ste s človekom, možno by ste mali byť na pozore, či vám ten človek poriadne zatrasie. Pri používaní systému AI sa zdá, že väčšina ľudí je menej podozrivá. Často predpokladajú, že AI je spravodlivá a preto sa tak rýchlo nerozčúlia. Zdá sa, že AI uspáva ľudí do tranzu „je to len stroj“. Okrem toho môže byť ťažké pokúsiť sa protestovať proti AI. Naproti tomu protestovať proti tomu, ako s vami zaobchádzal ľudský agent, je oveľa jednoduchšie a oveľa bežnejšie akceptované a považované za realizovateľne možné.

Celkovo vzaté, AI, ktorá je ponorená do predsudkov, má nečestný náskok v porovnaní s ľuďmi posadnutými predsudkami, konkrétne z hľadiska schopnosti AI masívne nasadiť tieto predsudky v obrovskom meradle, bez toho, aby sa ľahko nechala chytiť alebo mať spotrebiteľov. uvedomiť si, čo sa znepokojujúco deje.

V tomto bode diskusie by som sa stavil, že si prajete nejaké ďalšie príklady, ktoré by mohli ukázať hlavolam zaujatosti pohltenej AI vo veľkom rozsahu.

Som rád, že si sa opýtal.

Existuje špeciálny a určite populárny súbor príkladov, ktoré sú môjmu srdcu blízke. Vidíte, ako odborník na AI vrátane etických a právnych dôsledkov ma často žiadajú, aby som identifikoval realistické príklady, ktoré predstavujú dilemy etiky AI, aby bolo možné ľahšie pochopiť trochu teoretickú povahu tejto témy. Jednou z najviac evokujúcich oblastí, ktorá názorne prezentuje tento etický problém umelej inteligencie, je príchod skutočne samoriadiacich áut založených na AI. Bude to slúžiť ako praktický príklad použitia alebo príklad na rozsiahlu diskusiu na túto tému.

Tu je potom pozoruhodná otázka, ktorá stojí za zamyslenie: Osvetlí príchod skutočne samoriadiacich áut založených na AI niečo o predpojatostiach prehĺbených umelou inteligenciou, a ak áno, čo to ukazuje?

Dovoľte mi chvíľu rozbaliť otázku.

Po prvé, všimnite si, že v skutočne samoriadiacom aute nie je žiadny ľudský vodič. Majte na pamäti, že skutočne samoriadiace autá sú poháňané systémom AI. Nie je potrebný ľudský vodič za volantom, ani neexistuje ustanovenie, aby vozidlo riadil človek. Pre moje rozsiahle a neustále pokrytie autonómnych vozidiel (AV) a najmä autonómnych áut viď odkaz tu.

Rád by som ďalej objasnil, čo sa myslí, keď hovorím o skutočne samoriadiacich autách.

Porozumenie úrovniam samoriadiacich automobilov

Na objasnenie, skutočné samoriadiace vozidlá sú také, ktoré AI riadia auto úplne samostatne a počas riadenia vozidla neexistuje žiadna ľudská asistencia.

Tieto vozidlá bez vodiča sa považujú za úroveň 4 a úroveň 5 (pozri moje vysvetlenie na tento odkaz tu), zatiaľ čo auto, ktoré vyžaduje, aby sa ľudský vodič podieľal na riadení, sa zvyčajne považuje za úroveň 2 alebo úroveň 3. Autá, ktoré sa podieľajú na úlohe riadenia, sú opísané ako poloautonómne a zvyčajne obsahujú rôzne automatizované doplnky, ktoré sa označujú ako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 zatiaľ neexistuje skutočné samohybné auto, ktoré ešte nevieme, či to bude možné dosiahnuť, ani ako dlho bude trvať, kým sa tam dostaneme.

Medzitým sa úsilie úrovne 4 postupne pokúša získať určitú trakciu podstupovaním veľmi úzkych a selektívnych testov na verejných cestách, hoci existuje polemika o tom, či by toto testovanie malo byť povolené ako také (v experimente sme všetci pokusnými králikmi na život a na smrť). ktoré sa odohrávajú na našich diaľniciach a vedľajších cestách, niektorí tvrdia, pozri moje spravodajstvo na tento odkaz tu).

Keďže poloautonómne automobily si vyžadujú vodiča, prijatie týchto typov automobilov sa nebude výrazne líšiť od riadenia konvenčných vozidiel, takže o tejto téme nie je samo o sebe veľa nových (ako vidíte, uvidíte) za okamih sa spravidla použijú nasledujúce body).

V prípade autonómnych automobilov je dôležité, aby verejnosť musela byť upozornená na rušivý aspekt, ktorý sa objavuje v poslednej dobe, a to napriek tomu, že napriek tým vodičom, ktorí neustále vysielajú svoje videá, ktoré zaspávajú za volantom automobilu úrovne 2 alebo 3 , musíme sa vyhnúť tomu, aby sme boli uvedení do omylu v presvedčenie, že vodič môže odvádzať svoju pozornosť od úlohy pri riadení čiastočne autonómneho vozidla.

Ste zodpovednou stranou za jazdné vlastnosti vozidla bez ohľadu na to, do akej miery by sa automatizácia mohla hodiť na úroveň 2 alebo úroveň 3.

Samoriadiace autá a predsudky AI v mierke

Pri vozidlách s vlastným riadením na úrovni 4 a 5 sa do úlohy vedenia vozidla nebude podieľať ľudský vodič.

Všetci cestujúci budú cestujúcimi.

AI robí jazdu.

Jedným z aspektov, o ktorých je potrebné okamžite diskutovať, je skutočnosť, že AI zapojená do dnešných systémov riadenia AI nie je vnímavá. Inými slovami, AI je celkom kolektív počítačového programovania a algoritmov a je nepochybne neschopný uvažovať rovnakým spôsobom ako ľudia.

Prečo je tento zvýšený dôraz na to, aby AI nebola vnímavá?

Pretože by som chcel zdôrazniť, že keď diskutujem o úlohe jazdného systému AI, nepripisujem AI ľudské vlastnosti. Uvedomte si, že v dnešnej dobe pretrváva nebezpečná tendencia k antropomorfizácii AI. Ľudia v podstate priraďujú dnešnému UI sentiment podobný človeku, a to aj napriek nepopierateľnému a nespochybniteľnému faktu, že zatiaľ taký AI neexistuje.

S týmto objasnením si môžete predstaviť, že systém riadenia umelej inteligencie nebude natívne nejako „vedieť“ o aspektoch riadenia. Vedenie vozidla a všetko, čo k tomu patrí, bude potrebné programovať ako súčasť hardvéru a softvéru samostatne riadeného automobilu.

Poďme sa ponoriť do nespočetného množstva aspektov, ktoré sa budú hrať na túto tému.

Po prvé, je dôležité si uvedomiť, že nie všetky autá s umelou inteligenciou sú rovnaké. Každá automobilka a technologická firma s vlastným pohonom pristupuje k navrhovaniu samoriadiacich áut. Preto je ťažké urobiť rozsiahle vyhlásenia o tom, čo AI riadiace systémy urobia alebo neurobia.

Okrem toho, kedykoľvek sa uvádza, že riadiaci systém AI nerobí konkrétne veci, neskôr to môžu predbehnúť vývojári, ktorí počítač v skutočnosti naprogramujú tak, aby to urobil. Krok za krokom sa systémy riadenia AI postupne vylepšujú a rozširujú. Existujúce obmedzenie dnes už nemusí existovať v budúcej iterácii alebo verzii systému.

Verím, že poskytne dostatočnú litániu výhrad, ktoré sú základom toho, o čom sa chystám hovoriť.

Teraz sme pripravení na to, aby sme sa hlboko ponorili do samoriadiacich áut a možností etickej AI, ktoré zahŕňajú skúmanie predsudkov preniknutých AI, ktoré sú propagované vo veľkom meradle.

Použime jednoduchý príklad. V uliciach vášho susedstva jazdí samoriadiace auto založené na AI a zdá sa, že jazdí bezpečne. Najprv ste venovali osobitnú pozornosť každému, keď sa vám podarilo zahliadnuť samoriadiace auto. Autonómne vozidlo vynikalo regálom s elektronickými senzormi, ktoré zahŕňali videokamery, radarové jednotky, zariadenia LIDAR a podobne. Po mnohých týždňoch samoriadiaceho auta, ktoré križovalo vašu komunitu, si to teraz sotva všimnete. Pokiaľ ide o vás, je to len ďalšie auto na už aj tak rušných verejných cestách.

Aby ste si nemysleli, že je nemožné alebo nepravdepodobné zoznámiť sa so samoriadiacimi autami, často som písal o tom, ako si miesta, ktoré sú v rámci skúšok samoriadiacich áut, postupne zvykli na vyšperkované vozidlá, pozri moju analýzu na tento odkaz tu. Mnohí z miestnych obyvateľov sa nakoniec preorientovali z dychtivého cikania s otvorenými ústami a teraz vydávajú rozsiahle zívanie nudy, aby boli svedkami kľukatiacich sa samoriadiacich áut.

Pravdepodobne hlavným dôvodom, prečo by si mohli všimnúť autonómne vozidlá, je faktor podráždenia a podráždenia. Bežné jazdné systémy AI zabezpečujú, že autá dodržiavajú všetky rýchlostné limity a pravidlá cestnej premávky. Pre hektických ľudských vodičov v ich tradičných autách poháňaných ľuďmi vás občas naštve, keď uviaznu za prísne zákonnými samoriadiacimi autami založenými na AI.

To je niečo, na čo si všetci musíme zvyknúť, či už oprávnene alebo nesprávne.

Späť k našej rozprávke.

Ukazuje sa, že v súvislosti s inak neškodnými a všeobecne vítanými autonómnymi autami založenými na AI sa začínajú objavovať dve nemiestne obavy, konkrétne:

a. Tam, kde sa umelá inteligencia potuluje, samoriadiace autá na vyzdvihnutie sa objavili ako vyslovený problém

b. To, ako AI zaobchádza s čakajúcimi chodcami, ktorí nemajú prednosť v jazde, sa stalo naliehavým problémom

Najprv sa AI potulovala po samoriadiacich autách po celom meste. Každý, kto chcel požiadať o odvoz v samoriadiacom aute, mal v podstate rovnakú šancu zavolať. Postupne začala AI primárne udržiavať samoriadiace autá v pohybe len v jednej časti mesta. Táto sekcia bola väčším zdrojom peňazí a systém AI bol naprogramovaný tak, aby sa pokúsil maximalizovať výnosy ako súčasť používania v komunite.

Členovia komunity v chudobných častiach mesta mali menšiu pravdepodobnosť, že sa budú môcť odviezť v samoriadiacom aute. Bolo to preto, že samoriadiace autá boli ďalej a pohybovali sa v časti s vyššími príjmami. Keď prišla požiadavka zo vzdialenej časti mesta, každá požiadavka z bližšieho miesta, ktorá bola pravdepodobne v „váženej“ časti mesta, by dostala vyššiu prioritu. Nakoniec, dostupnosť autonómneho auta na akomkoľvek inom mieste ako v bohatšej časti mesta bola takmer nemožná, čo je znepokojujúce pre tých, ktorí žili v tých oblastiach, kde teraz chýbajú zdroje.

Môžete tvrdiť, že AI do značnej miery pristála na forme proxy diskriminácie (často označovanej aj ako nepriama diskriminácia). AI nebola naprogramovaná tak, aby sa vyhla chudobnejším štvrtiam. Namiesto toho sa to „naučil“ pomocou ML/DL.

Ide o to, že ľudskí vodiči zdieľania jázd boli známi tým, že robili to isté, aj keď nie nevyhnutne výlučne kvôli uhlu zarábania peňazí. Niektorí ľudskí vodiči, ktorí sa delia na jazdách, mali neprirodzenú zaujatosť pri zdvíhaní jazdcov v určitých častiach mesta. Bol to trochu známy jav a mesto zaviedlo monitorovací prístup, aby prichytilo ľudských vodičov, ktorí to robia. Ľudskí vodiči by sa mohli dostať do problémov pri vykonávaní nechutných výberových praktík.

Predpokladalo sa, že AI nikdy nespadne do rovnakého pohyblivého piesku. Nebolo nastavené žiadne špecializované monitorovanie, ktoré by sledovalo, kam smerujú samoriadiace autá založené na AI. Až keď sa členovia komunity začali sťažovať, predstavitelia mesta si uvedomili, čo sa deje. Viac o týchto typoch celomestských problémov, ktoré budú predstavovať autonómne vozidlá a autá s vlastným riadením, nájdete v mojom spravodajstve na tento odkaz tu a ktorý popisuje štúdiu vedenú Harvardom, ktorej som sa na túto tému podieľal.

Tento príklad roamingových aspektov samoriadiacich áut založených na AI ilustruje skoršie náznaky toho, že môžu nastať situácie, v ktorých ľudia budú mať nežiaduce zaujatosti, pre ktoré sú zavedené kontroly, a že umelá inteligencia, ktorá nahrádza týchto ľudských vodičov, je ponechaná na uzde. zadarmo. Bohužiaľ, AI sa potom môže postupne utápať v podobných predsudkoch a robiť to bez dostatočných ochranných zábradlí.

To tiež poukazuje na zaujatosť AI v rozsahu.

V prípade ľudských vodičov sme tu či tam mohli mať niekoľko takých, ktorí prejavovali nejakú formu nerovnosti. Pre systém riadenia AI je to zvyčajne jedna taká jednotná AI pre celú flotilu samoriadiacich áut. Mohli sme teda začať povedzme s päťdesiatimi samoriadiacimi autami v meste (všetky poháňané rovnakým kódom AI) a postupne zvýšiť povedzme na 500 samoriadiacich áut (všetky sú riadené rovnakým kódom AI). Keďže všetkých týchto päťsto samoriadiacich áut prevádzkuje tá istá AI, všetky podliehajú rovnakým odvodeným predsudkom a nerovnostiam, ktoré sú súčasťou AI.

Škálovanie nás v tomto smere bolí.

Druhým príkladom je, že AI určuje, či má zastaviť pre čakajúcich chodcov, ktorí nemajú prednosť na prechod cez ulicu.

Nepochybne ste šoférovali a stretli chodcov, ktorí čakali na prechod cez ulicu, no nemali na to prednosť. To znamenalo, že ste mali možnosť rozhodnúť sa, či zastaviť a nechať ich prejsť. Mohli by ste pokračovať bez toho, aby ste ich nechali prejsť, a pritom ste plne v rámci zákonných pravidiel jazdy.

Štúdie o tom, ako sa ľudskí vodiči rozhodujú, či zastaviť alebo nezastaviť pre takýchto chodcov, naznačujú, že niekedy sa ľudskí vodiči rozhodujú na základe nevhodných predsudkov. Ľudský vodič si môže prehliadnuť chodca a rozhodnúť sa nezastaviť, aj keď by zastavil, keby mal chodec iný vzhľad, napríklad na základe rasy alebo pohlavia. Skúmal som to na odkaz tu.

Predstavte si, že samoriadiace autá založené na AI sú naprogramované tak, aby riešili otázku, či zastaviť alebo nezastaviť pre chodcov, ktorí nemajú prednosť. Tu je návod, ako sa vývojári AI rozhodli naprogramovať túto úlohu. Údaje zbierali z mestských videokamier, ktoré sú rozmiestnené po celom meste. Údaje ukazujú ľudských vodičov, ktorí zastavia pre chodcov, ktorí nemajú prednosť, a ľudských vodičov, ktorí nezastavia. Všetko sa zhromažďuje do veľkého súboru údajov.

Pomocou strojového učenia a hlbokého učenia sa údaje modelujú výpočtovo. Riadiaci systém AI potom používa tento model na rozhodnutie, kedy zastaviť alebo nezastaviť. Všeobecne platí, že bez ohľadu na to, z čoho sa skladá miestny zvyk, AI takto riadi samoriadiace auto.

Na prekvapenie predstaviteľov mesta a obyvateľov sa AI evidentne rozhodla zastaviť alebo nezastaviť na základe vzhľadu chodca, vrátane jeho rasy a pohlavia. Senzory samoriadiaceho auta naskenujú čakajúceho chodca, vložia tieto údaje do modelu ML/DL a model oznámi AI, či má zastaviť alebo pokračovať. Je smutné, že mesto už malo v tomto ohľade veľa predsudkov na ľudských vodičoch a AI teraz napodobňovala to isté.

Tento príklad ilustruje, že systém umelej inteligencie môže iba duplikovať už existujúce nepriaznivé predsudky ľudí. Okrem toho to robí vo veľkom rozsahu. Akýkoľvek ľudský vodič mohol byť niekedy naučený robiť túto nevhodnú formu výberu alebo možno osobne vybraný, aby tak urobil, ale je pravdepodobné, že väčšina ľudských vodičov to pravdepodobne nerobí masovo.

V ostrom kontraste je pravdepodobné, že systém riadenia AI, ktorý sa používa na riadenie autonómnych áut, bude otrasne konzistentne a s istotou vykonávať odvodenú zaujatosť.

záver

Existuje mnoho spôsobov, ako sa pokúsiť vyhnúť vymýšľaniu AI, ktorá má nepriaznivé zaujatosti alebo ktorá časom naberá zaujatosti. Myšlienkou je čo najviac zachytiť problémy skôr, ako zaradíte vysoký prevodový stupeň a naštartujete na škálovanie. Dúfajme, že predsudky sa takpovediac nedostanú von.

Predpokladajme však, že v AI vznikne tak či onak zaujatosť. Akonáhle budete s AI nasadzovaní vo veľkom meradle, nemôžete len urobiť jeden z tých často vyhlasovaných technických nápadov „zapáľ a zabudni“. Musíte dôsledne sledovať, čo robí AI, a snažiť sa odhaliť akékoľvek nepriaznivé predsudky, ktoré je potrebné napraviť.

Ako už bolo spomenuté, jedným z prístupov je zabezpečiť, aby si vývojári AI boli vedomí etiky AI, a tak ich povzbudili, aby boli v strehu, aby naprogramovali AI na odvrátenie týchto záležitostí. Ďalšia cesta spočíva v samočinnom monitorovaní AI pre neetické správanie a/alebo v inom kuse AI, ktorý monitoruje iné systémy AI z hľadiska potenciálne neetického správania. Vo svojich spisoch som pokryl množstvo ďalších možných riešení.

Zatiaľ posledná myšlienka. Keď sme túto diskusiu začali Platónovým citátom, možno by bolo vhodné uzavrieť diskusiu ďalším dôvtipným Platónovým výrokom.

Platón vyhlásil, že nie je na škodu opakovať dobrú vec.

Jednoduchosť škálovania pomocou AI je určite životaschopným prostriedkom na dosiahnutie takejto pozitívnej túžby, keď je umelá inteligencia AI pre dobro rozmanitosť. Baví nás opakovať dobrú vec. Keď je AI AI pre zlé a plní neprajných predsudkov a nerovností, mohli by sme sa oprieť o Platónove poznámky a povedať, že opakovanie zlej veci je veľa zlého.

Pozorne počúvajme Platónove múdre slová a podľa toho vymyslime našu AI.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- v globálnom meradle, najmä poháňané palivom prostredníctvom vznikajúcich plne autonómnych systémov/