Etika AI hovorí, že AI by mala byť nasadzovaná najmä vtedy, keď je veľa ľudských predsudkov

Ľudia musia poznať svoje obmedzenia.

Možno si spomínate na podobnú slávnu vetu o poznaní našich obmedzení, ktorú odvážne vyslovila postava Dirty Harry vo filme z roku 1973 s názvom Sila Magnum (podľa hovorených slov herca Clinta Eastwooda v jeho nezabudnuteľnej úlohe inšpektora Harryho Callahana). Celková predstava je taká, že niekedy máme tendenciu prehliadať svoje vlastné limity a podľa toho sa dostať do horúcej vody. Či už kvôli arogancii, egocentrizmu alebo jednoducho slepému k našim vlastným schopnostiam, pravidlo uvedomovať si a brať do úvahy naše sklony a nedostatky je veľmi rozumné a užitočné.

Pridajme k múdrej rade nový nádych.

Umelá inteligencia (AI) pozná svoje obmedzenia.

Čo myslím tým variantom uctievanej frázy?

Ukazuje sa, že počiatočný nápor použiť modernú umelú inteligenciu ako nádejného riešenia svetových problémov bol pošpinený a úplne zakalený zistením, že dnešná umelá inteligencia má niektoré dosť vážne obmedzenia. Vyšli sme z povznášajúcich titulkov z AI pre dobro a čoraz viac sme sa ocitli v zatápaní AI pre zlé. Vidíte, mnoho systémov AI bolo vyvinutých a nasadených so všetkými druhmi nežiaducich rasových a rodových predsudkov a nespočetným množstvom ďalších takýchto otrasných nerovností.

Moje rozsiahle a prebiehajúce pokrytie etiky AI a etickej AI nájdete v časti odkaz tu a odkaz tu, Len aby sme vymenovali niekoľko.

Predsudky objavené v týchto systémoch AI nie sú povedzme „zámerného“ typu, ktorý by sme pripisovali ľudskému správaniu. Spomínam to preto, aby som zdôraznil, že dnešná AI nie je vnímavá. Napriek týmto krikľavým titulkom, ktoré naznačujú opak, nikde nie je žiadna umelá inteligencia, ktorá by sa čo i len približovala vnímavosti. Okrem toho nevieme, ako dostať AI do skupiny vnímania, a nikto nemôže s istotou povedať, či niekedy dosiahneme vnímanie AI. Možno sa to raz stane, možno nie.

Chcem teda povedať, že zámer nemôžeme priradiť konkrétnemu druhu AI, ktorý v súčasnosti vlastníme. Ako už bolo povedané, môžeme v hojnej miere priradiť zámer tým, ktorí vyrábajú systémy AI. Niektorí vývojári AI si neuvedomujú skutočnosť, že vymysleli systém AI, ktorý obsahuje nechutné a možno nezákonné predsudky. Medzitým si iní vývojári AI uvedomujú, že do svojich systémov umelej inteligencie vkladajú predsudky a môžu tak robiť účelovo nesprávne.

V každom prípade je výsledok stále nevhodný a pravdepodobne nezákonný.

Vyvíja sa veľké úsilie s cieľom propagovať princípy etiky AI, ktoré osvietia vývojárov AI a poskytnú vhodné pokyny na to, aby sa vyhli zakomponovaniu predsudkov do ich systémov AI. Pomôže to dvojakým spôsobom. Po prvé, tí, ktorí vyrábajú AI, už nebudú mať pripravenú výhovorku, že jednoducho nevedeli, aké predpisy by sa mali dodržiavať. Po druhé, tí, ktorí sa odklonia od podmienok Etického AI, budú ľahšie chytení a ukázaní ako odvrátení toho, na čo boli vopred upozornení, aby robili a nerobili.

Poďme sa na chvíľu stručne zamyslieť nad niektorými kľúčovými pravidlami etiky AI, aby sme ilustrovali, na čo by mali tvorcovia umelej inteligencie myslieť a čo by mali dôsledne dodržiavať z hľadiska etiky AI.

Ako uviedol Vatikán v Rím vyzýva na etiku AI a ako som sa podrobne venoval odkaz tuToto je ich identifikovaných šesť základných etických princípov AI:

  • transparentnosť: V zásade musia byť systémy AI vysvetliteľné
  • začlenenie: Potreby všetkých ľudských bytostí musia byť brané do úvahy, aby z toho mohol mať úžitok každý, a aby všetkým jednotlivcom mohli byť ponúknuté najlepšie možné podmienky na sebavyjadrenie a rozvoj.
  • odpovedá: Tí, ktorí navrhujú a nasadzujú používanie AI, musia postupovať zodpovedne a transparentne
  • nestrannosť: Nevytvárajte ani nekonajte podľa zaujatosti, čím si zabezpečíte spravodlivosť a ľudskú dôstojnosť
  • Spoľahlivosť: Systémy AI musia byť schopné spoľahlivo fungovať
  • Bezpečnosť a súkromie: Systémy AI musia fungovať bezpečne a rešpektovať súkromie používateľov.

Ako uviedlo americké ministerstvo obrany (DoD) vo svojom Etické princípy používania umelej inteligencie a ako som sa podrobne venoval odkaz tuToto je ich šesť základných etických princípov AI:

  • Zodpovedný: Personál ministerstva obrany bude uplatňovať primeranú úroveň úsudku a starostlivosti, pričom zostane zodpovedný za vývoj, nasadenie a používanie schopností AI.
  • Spravodlivé: Ministerstvo podnikne premyslené kroky, aby minimalizovalo neúmyselné skreslenie schopností AI.
  • Vysledovateľné: Schopnosti umelej inteligencie ministerstva sa vyvinú a rozmiestnia tak, aby príslušní pracovníci primerane rozumeli technológiám, vývojovým procesom a prevádzkovým metódam použiteľným na schopnosti umelej inteligencie, a to aj s transparentnými a kontrolovateľnými metodológiami, zdrojmi údajov a návrhovým postupom a dokumentáciou.
  • spoľahlivosť: Schopnosti umelej inteligencie ministerstva budú mať explicitné, dobre definované využitie a bezpečnosť, zabezpečenie a efektívnosť takýchto schopností bude predmetom testovania a zabezpečenia v rámci týchto definovaných použití počas celého životného cyklu.
  • Riaditeľné: Ministerstvo navrhne a skonštruuje schopnosti AI tak, aby plnili zamýšľané funkcie, pričom majú schopnosť odhaliť a vyhnúť sa neúmyselným následkom a schopnosť odpojiť alebo deaktivovať nasadené systémy, ktoré prejavujú neúmyselné správanie.

Diskutoval som aj o rôznych kolektívnych analýzach etických princípov AI, vrátane toho, že som sa zaoberal súborom navrhnutým výskumníkmi, ktorí preskúmali a zhrnuli podstatu mnohých národných a medzinárodných etických zásad AI v článku s názvom „Globálna krajina etických zásad AI“ (zverejnená v príroda), a ktoré moje pokrytie skúma na odkaz tu, čo viedlo k tomuto kľúčovému zoznamu:

  • Priehľadnosť
  • Spravodlivosť a spravodlivosť
  • Neškodnosť
  • zodpovednosť
  • súkromia
  • dobročinnosť
  • Sloboda a autonómia
  • Verte
  • Udržateľnosť
  • dôstojnosť
  • Solidarita

Ako môžete priamo uhádnuť, pokúsiť sa určiť špecifiká, ktoré sú základom týchto princípov, môže byť veľmi ťažké. O to viac, snaha premeniť tieto široké princípy na niečo úplne hmatateľné a dostatočne podrobné na to, aby sa dali použiť pri vytváraní systémov AI, je tiež tvrdým orieškom. Celkovo je ľahké mávnuť rukou nad tým, čo sú to etické predpisy AI a ako by sa mali vo všeobecnosti dodržiavať, zatiaľ čo je to oveľa komplikovanejšia situácia, keď kódovanie AI musí byť skutočná guma, ktorá sa stretáva s vozovkou.

Princípy etiky AI majú používať vývojári AI spolu s tými, ktorí riadia úsilie o vývoj AI, a dokonca aj tí, ktorí v konečnom dôsledku nasadzujú a vykonávajú údržbu systémov AI. Všetky zainteresované strany počas celého životného cyklu vývoja a používania AI sa zohľadňujú v rámci dodržiavania zavedených noriem Etickej umelej inteligencie. Toto je dôležitý bod, pretože zvyčajným predpokladom je, že „iba kóderi“ alebo tí, ktorí programujú AI, podliehajú etike AI. Uvedomte si, že na vymyslenie a nasadenie AI je potrebná dedina. Kvôli čomu musí celá dedina držať palce ohľadom etiky AI.

Každopádne, teraz, keď som sa dostal k stolu, že AI môže obsahovať zaujatosti, možno všetci súhlasíme s týmito dvoma zjavnými faktami:

1. Ľudia môžu mať množstvo nepríjemných predsudkov a môžu na základe nich konať

2. AI môže mať množstvo nežiaducich skreslení a môže na ne reagovať

Trochu sa mi hnusí stavať ľudí proti AI v tomto kontexte, pretože by to mohlo nejakým spôsobom naznačovať, že AI má vnímavé schopnosti na rovnakej úrovni ako ľudia. Určite to tak nie je. O niečo neskôr sa v tejto diskusii vrátim k rastúcim obavám z antropomorfizácie AI.

Čo je horšie, ľudia, ktorí prejavujú nežiaduce zaujatosti alebo AI, ktorá tak robí?

Dovolím si tvrdiť, že otázka predstavuje jednu z tých krutých volieb. Je to povestné menšie z dvoch zla, dalo by sa namietať. Priali by sme si, aby ľudia neboli stelesnením nevhodných predsudkov. Ďalej by sme si želali, aby aj keď ľudia mali nepriaznivé predsudky, nekonali podľa týchto predsudkov. To isté by sa dalo výstižne povedať o AI. Priali by sme si, aby umelá inteligencia nevkladala nepriaznivé predsudky a aby aj keď existujú také vnútorne zakódované predsudky, AI by na ne aspoň nekonala.

Priania však nemusia nutne riadiť svet (pre moju analýzu rastúceho a znepokojujúceho zdania tzv AI splnenie prianí spoločnosťou vo všeobecnosti, viď odkaz tu).

Dobre, samozrejme chceme, aby ľudia poznali svoje obmedzenia. Je dôležité rozpoznať, kedy máte nepríjemné predsudky. Rovnako dôležité je snažiť sa zabrániť tomu, aby sa tieto nemiestne predsudky dostali do vašich činov a rozhodnutí. Dnešné podniky skúšajú najrôznejšie prístupy, aby zabránili svojim zamestnancom, aby sa dostali do strašných nástrah. Zamestnancom sa poskytuje špecializované školenie o tom, ako vykonávať svoju prácu eticky správnym spôsobom. Procesy sa formujú okolo zamestnancov, aby ich upozornili, keď sa zdá, že prejavujú neetické mravy. A tak ďalej.

Ďalším spôsobom, ako sa vysporiadať s ľuďmi a ich nežiaducimi predsudkami, by bola automatizácia ľudskej práce. Áno, jednoducho odstráňte človeka zo slučky. Nedovoľte človeku, aby vykonával rozhodovaciu úlohu a pravdepodobne už nemáte žiadne pretrvávajúce obavy o ľudské postoje voči akýmkoľvek nepríjemným predsudkom. Nie je do toho zapojený človek, a tak sa zdá, že problém potenciálnych ľudských predsudkov je vyriešený.

Uvádzam to, pretože sme svedkami postupného a masívneho posunu smerom k používaniu AI spôsobom rozhodovania podľa algoritmu (ADM). Ak dokážete nahradiť ľudského pracovníka AI, je pravdepodobné, že vznikne veľa výhod. Ako už bolo spomenuté, už by ste sa netrápili ľudskými predsudkami tohto ľudského pracovníka (toho, ktorý už túto prácu nerobí). Je pravdepodobné, že AI bude celkovo menej nákladná v porovnaní s dlhodobým časovým horizontom. Zaobídete sa od všetkých ostatných rôznorodých ťažkostí, ktoré prichádzajú s ľudskými pracovníkmi. Atď.

Zdá sa, že návrh, ktorý sa presadzuje, je tento: Keď sa pokúšate rozhodnúť, kam najlepšie umiestniť AI, pozerajte sa najprv na nastavenia, ktoré už zo strany vašich pracovníkov prinášajú neprirodzené ľudské zaujatosti a pre ktoré tieto zaujatosti podkopávajú alebo inak nadmerne komplikujú konkrétne rozhodovacie úlohy.

Zrátané a podčiarknuté je, že by sa zdalo rozumné zarobiť čo najviac peňazí, pokiaľ ide o investovanie do AI, a to tak, že sa priamo zameriate na vysoko exponované úlohy ľudského rozhodovania, ktoré sa ťažko kontrolujú z perspektívy nevhodnej infúzie predsudkov. Odstráňte ľudských pracovníkov v tejto úlohe. Nahraďte ich AI. Predpokladom je, že AI by nemala také nežiaduce zaujatosti. Preto si môžete dať svoj koláč a zjesť ho tiež, menovite sa ujať rozhodovacích úloh a urobiť tak bez etického a právneho strašidla nežiaducich predsudkov.

Keď si to prečiarknete, návratnosť investícií (návratnosť investícií) by pravdepodobne spôsobila, že prijatie AI bude jednoduchou voľbou.

Tu je návod, ako to zvyčajne prebieha.

Pozrite sa vo svojej firme a pokúste sa identifikovať úlohy rozhodovania, ktoré ovplyvňujú zákazníkov. Ktoré z týchto úloh budú s najväčšou pravdepodobnosťou nevhodne ovplyvnené, ak sú pracovníci stelesnením neprajných predsudkov? Ak ste sa už pokúsili obmedziť tieto predsudky, možno ste nechali veci tak, ako sú. Na druhej strane, ak sa predsudky stále objavujú a snaha o ich potlačenie je obtiažna, zvážte vypustenie nejakej relevantnej AI do tejto úlohy. Nedržte robotníkov v mixe, pretože by mohli prekonať AI alebo zatlačiť AI späť do nepriaznivej priepasti. Tiež sa uistite, že AI dokáže vykonávať úlohu odborne a či ste dostatočne zachytili aspekty rozhodovania potrebné na vykonanie úlohy.

Opláchnite a opakujte.

Uvedomujem si, že to vyzerá ako jednoduchá myšlienka, aj keď si uvedomujem, že existuje veľa spôsobov, ako sa môže nahradenie ľudských pracovníkov AI ľahko zvrtnúť. Mnohé spoločnosti dychtili po takýchto krokoch a vedome neuvažovali, ako to urobiť. Výsledkom bolo, že často narobili oveľa horší neporiadok, aký mali na začiatku v rukách.

Chcem objasniť a zdôrazniť, že AI nie je všeliek.

Keď už o tom hovoríme, je tu jeden obrovský háčik týkajúci sa čistoty zdanlivo vyhadzovania ľudí zaujatých rozhodovacích orgánov s údajne nezaujatou AI. Háčik je v tom, že možno len nahrádzate jednu sadu nežiaducich predsudkov inou. Podľa predchádzajúcej indikácie môže AI obsahovať nežiaduce predsudky a môže na tieto odchýlky pôsobiť. Vysloviť drzý predpoklad, že výmena zaujatých ľudí za nezaujatú AI nie je všetko, čo sa zdá byť.

Stručne povedané, tu je dohoda, keď sa na vec pozeráme striktne z faktorov zaujatosti:

  • Umelá inteligencia nemá žiadne nepriaznivé predsudky a preto je vhodné nasadiť ADM založenú na AI
  • AI má rovnaké nepriaznivé zaujatosti ako ľudia, ktorí sú nahradení ľuďmi, a preto je ADM založený na AI znepokojujúci
  • Umelá inteligencia zavádza nové nepriaznivé zaujatosti nad rámec tých, ktorí sú nahradení ľuďmi, a pravdepodobne podľa toho zhorší veci
  • AI sa na prvý pohľad zdá byť v poriadku a potom sa postupne zakolísa do nežiaducich skreslení
  • ostatné

Tieto možnosti môžeme v krátkosti rozbaliť.

Prvá je idealizovaná verzia toho, čo sa môže stať. AI nemá žiadne nevhodné predsudky. Nasadíte AI na svoje miesto a svoju prácu zvládne skvele. Dobre pre teba! Samozrejme, dalo by sa dúfať, že ste tiež nejakým obratným spôsobom zvládli premiestňovanie ľudských pracovníkov v dôsledku začlenenia AI.

V druhom prípade nasadíte AI a zistíte, že AI vykazuje rovnaké nepriaznivé zaujatosti, aké mali ľudskí robotníci. Ako to môže byť? Bežným prostriedkom, ako sa dostať do tejto pasce, je použitie strojového učenia (ML) a hlbokého učenia (DL), ktoré sú založené na zhromaždených údajoch o tom, ako sa ľudia v danej úlohe predtým rozhodovali.

Dovoľte mi chvíľu vysvetliť.

ML/DL je forma porovnávania výpočtových vzorov. Zvyčajný prístup je taký, že zhromažďujete údaje o úlohe rozhodovania. Dáta vložíte do počítačových modelov ML/DL. Tieto modely sa snažia nájsť matematické vzorce. Po nájdení takýchto vzorov, ak sa nájdu, systém AI potom použije tieto vzory pri stretnutí s novými údajmi. Po predložení nových údajov sa na vyvodenie aktuálneho rozhodnutia použijú vzory založené na „starých“ alebo historických údajoch.

Myslím, že viete hádať, kam to smeruje. Ak ľudia, ktorí túto prácu robili roky a roky, začleňovali neprirodzené predsudky, je pravdepodobné, že údaje to odrážajú jemným, ale významným spôsobom. Porovnávanie výpočtových vzorov Machine Learning alebo Deep Learning sa jednoducho pokúsi zodpovedajúcim spôsobom matematicky napodobniť údaje. Neexistuje žiadne zdanie zdravého rozumu alebo iných vnímavých aspektov modelovania ako takého.

Okrem toho si vývojári AI nemusia uvedomiť, čo sa deje. Tajomná matematika môže sťažiť odhalenie teraz skrytých predsudkov. Oprávnene by ste dúfali a očakávali, že vývojári AI budú testovať potenciálne skryté predsudky, hoci je to zložitejšie, ako by sa mohlo zdať. Existuje solídna šanca, že aj pri relatívne rozsiahlom testovaní budú v modeloch zhody vzorov ML/DL stále zakomponované odchýlky.

Celkovo vzaté, môžete skončiť späť na začiatku. Rovnaké nepriaznivé predsudky ľudí sa teraz výpočtovo zrkadlia v systéme AI. Neodstránili ste predsudky.

Ešte horšie je, že si možno menej uvedomíte, že AI má predsudky. V prípade ľudí by ste si normálne mohli dávať pozor, že ľudia majú nežiaduce predsudky. Toto je základné očakávanie. Používanie AI môže vodcov ukolísať k presvedčeniu, že automatizácia úplne odstránila akýkoľvek druh ľudskej zaujatosti. Takto sa chystajú na to, že si strelili do nohy. Zbavili sa ľudí so zdanlivo známymi nežiaducimi zaujatosťami, boli nahradení AI, o ktorej sa predpokladalo, že takéto predsudky nemá, a napriek tomu teraz zaviedli AI plnú rovnakých predsudkov, o ktorých už vieme, že existujú.

To môže spôsobiť, že veci budú naozaj prehnané. Možno ste odstránili ďalšie zábradlia používané s ľudskými pracovníkmi, ktoré boli vytvorené na odhalenie a zabránenie vzniku týchto už očakávaných ľudských predsudkov. AI má teraz voľnú ruku. Nič nie je na mieste, aby to zachytilo predtým, ako zasiahnete. Umelá inteligencia by vás potom mohla viesť po krutej ceste obrovského nahromadenia zaujatých akcií.

A vy ste v nepríjemnej a možno zodpovednej pozícii, o ktorej ste kedysi vedeli o predsudkoch a teraz ste dovolili, aby tieto predsudky spôsobili zmätok. Jedna vec je možno to, že ste sa nikdy nestretli s takýmito nepríjemnými predsudkami, a potom ich zrazu z ničoho nič AI spustí. Môžete sa to pokúsiť ospravedlniť rušivom typu „kto by to uhádol“ (možno nie veľmi presvedčivo). Ale aby ste si teraz nastavili AI, ktorá robí tie isté neobjektívne akcie ako predtým, vaše výhovorky sú čoraz redšie a slabšie.

Zvrat v tomto znamená, že AI prejavuje neprirodzené zaujatosti, s ktorými sa predtým pri vykonávaní úlohy ľudia nestretli. Dalo by sa povedať, že tomu je možno ťažšie zabrániť, pretože pozostáva z „nových“ predsudkov, ktoré firma predtým nehľadala. Nakoniec vám však výhovorky nemusia priniesť veľkú úľavu. Ak sa systém AI dostal na neetické aj nezákonné územie, vaša hus môže byť uvarená.

Ďalším aspektom, ktorý treba mať na pamäti, je, že AI môže začať v pohode a potom sa dostať do nežiaducich predsudkov. Toto je obzvlášť pravdepodobné, keď sa strojové učenie alebo hlboké učenie používa priebežne, aby bola AI aktuálna. Bez ohľadu na to, či ML/DL pracuje v reálnom čase alebo pravidelne vykonáva aktualizácie, je potrebné venovať pozornosť tomu, či AI možno prijíma údaje, ktoré teraz obsahujú odchýlky a ktoré predtým neboli prítomné.

Pre vodcov, ktorí si myslia, že mávnutím čarovného prútika dostanú obed zadarmo, aby nahradili zaujatých ľudských pracovníkov AI, ich čaká veľmi hrubé prebudenie. Pozrite si moju diskusiu o dôležitosti splnomocnenia lídrov s pravidlami etiky AI na odkaz tu.

V tomto bode tejto diskusie by som sa stavil, že túžite po nejakých príkladoch zo skutočného sveta, ktoré by mohli ukázať hlavolam nahradenia (alebo nie) ľudských predsudkov nevhodnými predsudkami založenými na AI.

Som rád, že si sa opýtal.

Existuje špeciálny a určite populárny súbor príkladov, ktoré sú môjmu srdcu blízke. Vidíte, ako odborník na AI vrátane etických a právnych dôsledkov ma často žiadajú, aby som identifikoval realistické príklady, ktoré predstavujú dilemy etiky AI, aby bolo možné ľahšie pochopiť trochu teoretickú povahu tejto témy. Jednou z najviac evokujúcich oblastí, ktorá názorne prezentuje tento etický problém umelej inteligencie, je príchod skutočne samoriadiacich áut založených na AI. Bude to slúžiť ako praktický príklad použitia alebo príklad na rozsiahlu diskusiu na túto tému.

Tu je potom pozoruhodná otázka, ktorá stojí za zamyslenie: Osvetlí príchod skutočne samoriadiacich áut založených na AI niečo o nevhodnom zaujatí v AI, a ak áno, čo to ukazuje?

Dovoľte mi chvíľu rozbaliť otázku.

Po prvé, všimnite si, že v skutočne samoriadiacom aute nie je žiadny ľudský vodič. Majte na pamäti, že skutočne samoriadiace autá sú poháňané systémom AI. Nie je potrebný ľudský vodič za volantom, ani neexistuje ustanovenie, aby vozidlo riadil človek. Pre moje rozsiahle a neustále pokrytie autonómnych vozidiel (AV) a najmä autonómnych áut viď odkaz tu.

Rád by som ďalej objasnil, čo sa myslí, keď hovorím o skutočne samoriadiacich autách.

Porozumenie úrovniam samoriadiacich automobilov

Na objasnenie, skutočné samoriadiace vozidlá sú také, ktoré AI riadia auto úplne samostatne a počas riadenia vozidla neexistuje žiadna ľudská asistencia.

Tieto vozidlá bez vodiča sa považujú za úroveň 4 a úroveň 5 (pozri moje vysvetlenie na tento odkaz tu), zatiaľ čo auto, ktoré vyžaduje, aby sa ľudský vodič podieľal na riadení, sa zvyčajne považuje za úroveň 2 alebo úroveň 3. Autá, ktoré sa podieľajú na úlohe riadenia, sú opísané ako poloautonómne a zvyčajne obsahujú rôzne automatizované doplnky, ktoré sa označujú ako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 zatiaľ neexistuje skutočné samohybné auto, ktoré ešte nevieme, či to bude možné dosiahnuť, ani ako dlho bude trvať, kým sa tam dostaneme.

Medzitým sa úsilie úrovne 4 postupne pokúša získať určitú trakciu podstupovaním veľmi úzkych a selektívnych testov na verejných cestách, hoci existuje polemika o tom, či by toto testovanie malo byť povolené ako také (v experimente sme všetci pokusnými králikmi na život a na smrť). ktoré sa odohrávajú na našich diaľniciach a vedľajších cestách, niektorí tvrdia, pozri moje spravodajstvo na tento odkaz tu).

Keďže poloautonómne automobily si vyžadujú vodiča, prijatie týchto typov automobilov sa nebude výrazne líšiť od riadenia konvenčných vozidiel, takže o tejto téme nie je samo o sebe veľa nových (ako vidíte, uvidíte) za okamih sa spravidla použijú nasledujúce body).

V prípade autonómnych automobilov je dôležité, aby verejnosť musela byť upozornená na rušivý aspekt, ktorý sa objavuje v poslednej dobe, a to napriek tomu, že napriek tým vodičom, ktorí neustále vysielajú svoje videá, ktoré zaspávajú za volantom automobilu úrovne 2 alebo 3 , musíme sa vyhnúť tomu, aby sme boli uvedení do omylu v presvedčenie, že vodič môže odvádzať svoju pozornosť od úlohy pri riadení čiastočne autonómneho vozidla.

Ste zodpovednou stranou za jazdné vlastnosti vozidla bez ohľadu na to, do akej miery by sa automatizácia mohla hodiť na úroveň 2 alebo úroveň 3.

Samoriadiace autá a AI s nežiaducimi predsudkami

Pri vozidlách s vlastným riadením na úrovni 4 a 5 sa do úlohy vedenia vozidla nebude podieľať ľudský vodič.

Všetci cestujúci budú cestujúcimi.

AI robí jazdu.

Jedným z aspektov, o ktorých je potrebné okamžite diskutovať, je skutočnosť, že AI zapojená do dnešných systémov riadenia AI nie je vnímavá. Inými slovami, AI je celkom kolektív počítačového programovania a algoritmov a je nepochybne neschopný uvažovať rovnakým spôsobom ako ľudia.

Prečo je tento zvýšený dôraz na to, aby AI nebola vnímavá?

Pretože by som chcel zdôrazniť, že keď diskutujem o úlohe jazdného systému AI, nepripisujem AI ľudské vlastnosti. Uvedomte si, že v dnešnej dobe pretrváva nebezpečná tendencia k antropomorfizácii AI. Ľudia v podstate priraďujú dnešnému UI sentiment podobný človeku, a to aj napriek nepopierateľnému a nespochybniteľnému faktu, že zatiaľ taký AI neexistuje.

S týmto objasnením si môžete predstaviť, že systém riadenia umelej inteligencie nebude natívne nejako „vedieť“ o aspektoch riadenia. Vedenie vozidla a všetko, čo k tomu patrí, bude potrebné programovať ako súčasť hardvéru a softvéru samostatne riadeného automobilu.

Poďme sa ponoriť do nespočetného množstva aspektov, ktoré sa budú hrať na túto tému.

Po prvé, je dôležité si uvedomiť, že nie všetky autá s umelou inteligenciou sú rovnaké. Každá automobilka a technologická firma s vlastným pohonom pristupuje k navrhovaniu samoriadiacich áut. Preto je ťažké urobiť rozsiahle vyhlásenia o tom, čo AI riadiace systémy urobia alebo neurobia.

Okrem toho, kedykoľvek sa uvádza, že riadiaci systém AI nerobí konkrétne veci, neskôr to môžu predbehnúť vývojári, ktorí počítač v skutočnosti naprogramujú tak, aby to urobil. Krok za krokom sa systémy riadenia AI postupne vylepšujú a rozširujú. Existujúce obmedzenie dnes už nemusí existovať v budúcej iterácii alebo verzii systému.

Verím, že poskytne dostatočnú litániu výhrad, ktoré sú základom toho, o čom sa chystám hovoriť.

Teraz sme pripravení na to, aby sme sa hlboko ponorili do samoriadiacich áut a možností etiky AI, ktoré zahŕňajú skúmanie AI a nepriaznivé predsudky.

Použime jednoduchý príklad. V uliciach vášho susedstva jazdí samoriadiace auto založené na AI a zdá sa, že jazdí bezpečne. Najprv ste venovali osobitnú pozornosť každému, keď sa vám podarilo zahliadnuť samoriadiace auto. Autonómne vozidlo vynikalo regálom s elektronickými senzormi, ktoré zahŕňali videokamery, radarové jednotky, zariadenia LIDAR a podobne. Po mnohých týždňoch samoriadiaceho auta, ktoré križovalo vašu komunitu, si to teraz sotva všimnete. Pokiaľ ide o vás, je to len ďalšie auto na už aj tak rušných verejných cestách.

Aby ste si nemysleli, že je nemožné alebo nepravdepodobné zoznámiť sa so samoriadiacimi autami, často som písal o tom, ako si miesta, ktoré sú v rámci skúšok samoriadiacich áut, postupne zvykli na vyšperkované vozidlá, pozri moju analýzu na tento odkaz tu. Mnohí z miestnych obyvateľov sa nakoniec preorientovali z dychtivého cikania s otvorenými ústami a teraz vydávajú rozsiahle zívanie nudy, aby boli svedkami kľukatiacich sa samoriadiacich áut.

Pravdepodobne hlavným dôvodom, prečo by si mohli všimnúť autonómne vozidlá, je faktor podráždenia a podráždenia. Bežné jazdné systémy AI zabezpečujú, že autá dodržiavajú všetky rýchlostné limity a pravidlá cestnej premávky. Pre hektických ľudských vodičov v ich tradičných autách poháňaných ľuďmi vás občas naštve, keď uviaznu za prísne zákonnými samoriadiacimi autami založenými na AI.

To je niečo, na čo si všetci musíme zvyknúť, či už oprávnene alebo nesprávne.

Späť k našej rozprávke.

Ukazuje sa, že v súvislosti s inak neškodnými a všeobecne vítanými autonómnymi autami založenými na AI sa začínajú objavovať dve nemiestne obavy, konkrétne:

a. Tam, kde sa umelá inteligencia potuluje po samoriadiacich autách na vyzdvihnutie, sa v celej komunite stalo znepokojujúcim problémom

b. Ako sa AI správa k čakajúcim chodcom, ktorí nemajú prednosť v jazde, je tiež narastajúcou otázkou

Najprv sa AI potulovala po samoriadiacich autách po celom meste. Každý, kto chcel požiadať o odvoz v samoriadiacom aute, mal v podstate rovnakú šancu zavolať. Postupne začala AI primárne udržiavať samoriadiace autá v pohybe len v jednej časti mesta. Táto sekcia bola väčším zdrojom peňazí a systém AI bol naprogramovaný tak, aby sa pokúsil maximalizovať výnosy ako súčasť používania v komunite.

Členovia komunity v chudobných častiach mesta mali menšiu pravdepodobnosť, že sa budú môcť odviezť v samoriadiacom aute. Bolo to preto, že samoriadiace autá boli ďalej a pohybovali sa v časti s vyššími príjmami. Keď prišla požiadavka zo vzdialenej časti mesta, každá požiadavka z bližšieho miesta, ktorá bola pravdepodobne v „váženej“ časti mesta, by dostala vyššiu prioritu. Nakoniec, dostupnosť autonómneho auta na akomkoľvek inom mieste ako v bohatšej časti mesta bola takmer nemožná, čo je znepokojujúce pre tých, ktorí žili v tých oblastiach, kde teraz chýbajú zdroje.

Môžete tvrdiť, že AI do značnej miery pristála na forme proxy diskriminácie (často označovanej aj ako nepriama diskriminácia). AI nebola naprogramovaná tak, aby sa vyhla chudobnejším štvrtiam. Namiesto toho sa to „naučil“ pomocou ML/DL.

Ide o to, že ľudskí vodiči zdieľania jázd boli známi tým, že robili to isté, aj keď nie nevyhnutne výlučne kvôli uhlu zarábania peňazí. Niektorí ľudskí vodiči, ktorí sa delia na jazdách, mali neprirodzenú zaujatosť pri zdvíhaní jazdcov v určitých častiach mesta. Bol to trochu známy jav a mesto zaviedlo monitorovací prístup, aby prichytilo ľudských vodičov, ktorí to robia. Ľudskí vodiči by sa mohli dostať do problémov pri vykonávaní nechutných výberových praktík.

Predpokladalo sa, že AI nikdy nespadne do rovnakého pohyblivého piesku. Nebolo nastavené žiadne špecializované monitorovanie, ktoré by sledovalo, kam smerujú samoriadiace autá založené na AI. Až keď sa členovia komunity začali sťažovať, predstavitelia mesta si uvedomili, čo sa deje. Viac o týchto typoch celomestských problémov, ktoré budú predstavovať autonómne vozidlá a autá s vlastným riadením, nájdete v mojom spravodajstve na tento odkaz tu a ktorý popisuje štúdiu vedenú Harvardom, ktorej som sa na túto tému podieľal.

Tento príklad roamingových aspektov samoriadiacich áut založených na AI ilustruje skoršie náznaky toho, že môžu nastať situácie, v ktorých ľudia budú mať nežiaduce zaujatosti, pre ktoré sú zavedené kontroly, a že umelá inteligencia, ktorá nahrádza týchto ľudských vodičov, je ponechaná na uzde. zadarmo. Bohužiaľ, AI sa potom môže postupne utápať v podobných predsudkoch a robiť to bez dostatočných ochranných zábradlí.

Druhým príkladom je, že AI určuje, či má zastaviť pre čakajúcich chodcov, ktorí nemajú prednosť na prechod cez ulicu.

Nepochybne ste šoférovali a stretli chodcov, ktorí čakali na prechod cez ulicu, no nemali na to prednosť. To znamenalo, že ste mali možnosť rozhodnúť sa, či zastaviť a nechať ich prejsť. Mohli by ste pokračovať bez toho, aby ste ich nechali prejsť, a pritom ste plne v rámci zákonných pravidiel jazdy.

Štúdie o tom, ako sa ľudskí vodiči rozhodujú, či zastaviť alebo nezastaviť pre takýchto chodcov, naznačujú, že niekedy sa ľudskí vodiči rozhodujú na základe nevhodných predsudkov. Ľudský vodič si môže prehliadnuť chodca a rozhodnúť sa nezastaviť, aj keď by zastavil, keby mal chodec iný vzhľad, napríklad na základe rasy alebo pohlavia. Skúmal som to na odkaz tu.

Predstavte si, že samoriadiace autá založené na AI sú naprogramované tak, aby riešili otázku, či zastaviť alebo nezastaviť pre chodcov, ktorí nemajú prednosť. Tu je návod, ako sa vývojári AI rozhodli naprogramovať túto úlohu. Údaje zbierali z mestských videokamier, ktoré sú rozmiestnené po celom meste. Údaje ukazujú ľudských vodičov, ktorí zastavia pre chodcov, ktorí nemajú prednosť, a ľudských vodičov, ktorí nezastavia. Všetko sa zhromažďuje do veľkého súboru údajov.

Pomocou strojového učenia a hlbokého učenia sa údaje modelujú výpočtovo. Riadiaci systém AI potom používa tento model na rozhodnutie, kedy zastaviť alebo nezastaviť. Všeobecne platí, že bez ohľadu na to, z čoho sa skladá miestny zvyk, AI takto riadi samoriadiace auto.

Na prekvapenie predstaviteľov mesta a obyvateľov sa AI evidentne rozhodla zastaviť alebo nezastaviť na základe vzhľadu chodca, vrátane jeho rasy a pohlavia. Senzory samoriadiaceho auta naskenujú čakajúceho chodca, vložia tieto údaje do modelu ML/DL a model oznámi AI, či má zastaviť alebo pokračovať. Je smutné, že mesto už malo v tomto ohľade veľa predsudkov na ľudských vodičoch a AI teraz napodobňovala to isté.

Dobrou správou je, že to vyvoláva problém, o ktorom predtým takmer nikto nevedel. Zlou správou bolo, že odkedy bola AI prichytená, že to robí, nesie väčšinu viny. Tento príklad ilustruje, že systém umelej inteligencie môže iba duplikovať už existujúce nepriaznivé predsudky ľudí.

záver

Existuje mnoho spôsobov, ako sa pokúsiť vyhnúť vymýšľaniu AI, ktorá má buď nepriaznivé zaujatosti, alebo ktorá časom naberá zaujatosti. Jedným z prístupov je zabezpečiť, aby si vývojári AI boli vedomí toho, čo sa deje, a preto ich držia v strehu, aby naprogramovali AI tak, aby tomu zabránili. Ďalšia cesta spočíva v samočinnom monitorovaní AI pre neetické správanie (pozri moju diskusiu na odkaz tu) a/alebo mať inú časť AI, ktorá monitoruje iné systémy AI kvôli potenciálne neetickému správaniu (popísal som to na odkaz tu).

Aby sme to zrekapitulovali, musíme si uvedomiť, že ľudia môžu mať neprirodzené predsudky a že nejakým spôsobom potrebujú poznať svoje obmedzenia. Podobne aj AI môže mať nepriaznivé zaujatosti a nejako musíme poznať ich obmedzenia.

Pre tých z vás, ktorí zanietene prijímate etiku AI, by som teraz rád skončil ďalšou slávnou líniou, ktorú už každý musí poznať. Konkrétne, pokračujte v používaní a zdieľaní dôležitosti Etickej AI. A tým by som drzo povedal toto: "Do toho, sprav mi deň."

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-special-deployed-when-human-biases-are-aplenty/