Etika AI a zákon o AI smerujú k štandardom, ktoré explicitne identifikujú a riadia predsudky AI

Už ste niekedy hrali vyzdvihnutie päťdesiatich dvoch kariet?

Nie je to hra, do ktorej by ste sa normálne dobrovoľne pustili. Tu je dôvod. Niekto vám ponúkne, že je to údajne zábavný šport a ak vezmete sladkú návnadu, vyhodí celý balíček hracích kariet do vzduchu a súhrnne na zem. Daná osoba sa na vás drzo usmeje a povie vám, aby ste šli do toho a zobrali karty. To je celá hra.

Prankster!

Mám na to trochu premyslenú otázku.

Predpokladajme, že jedna z kariet vkĺzla pod neďalekú pohovku. Keď dokončíte pozbieranie všetkých kariet, budete vedieť, že jedna chýba, pretože v ruke budete mať iba päťdesiatjeden.

Otázkou je, vedeli by ste určiť, ktorá karta chýba?

Som si istý, že by ste si hneď povedali, že ľahko zistíte, ktorá karta nie je vo vašich rukách. Všetko, čo musíte urobiť, je dať palubu do poriadku. Viete, že štandardný balíček pozostáva zo štyroch farieb a že v každej farbe sú karty očíslované od jednej do desať a potom na Jacka, Kráľovnú a Kráľa.

Viete to, pretože štandardný balíček hracích kariet je založený na štandarde.

Fúha, toto vyhlásenie sa môže zdať ako jedno z tých úplne zrejmých tvrdení. No, áno, samozrejme, štandardný hrací balíček je založený na štandarde. Všetci to vieme. Ide mi o to, že ak máme štandard, môžeme sa naň spoľahnúť, keď je to potrebné. Okrem toho, že dokážete odvodiť, ktorá karta v balíčku chýba, môžete tiež ľahko hrať milióny známych kartových hier s inými ľuďmi. Keď sa niekomu povedia pravidlá hry, je priamo schopný hrať, pretože už plne vie, z čoho balíček pozostáva. Netreba im vysvetľovať, že balíček má štyri farby a rôzne očíslované karty. Už vedia, že to tak je.

Kam tým mierim?

Snažím sa vás priviesť na cestu, ktorá je životne dôležitým prostriedkom na dosiahnutie pokroku v oblasti AI a najmä v oblasti etiky a etiky AI. Vidíte, musíme sa pokúsiť prísť s rozšírenými a všeobecne dohodnutými štandardmi o etike AI. Ak sa nám to podarí, uľahčí to prijatie Etickej AI a preukázateľne sa zameriame na zlepšenie systémov AI, ktoré sa neustále vrhajú na trh (ako nečíslovaný a neusporiadaný balíček divokých kariet). Moje pokračujúce a rozsiahle pokrytie etiky umelej inteligencie, etickej umelej inteligencie a zákona o umelej inteligencii nájdete v časti odkaz tu a odkaz tu, Len aby sme vymenovali niekoľko.

Jeden konkrétny segment alebo časť etiky umelej inteligencie, ktorá si získala veľkú pozornosť médií, pozostáva z umelej inteligencie, ktorá sa prejavuje nežiaducimi zaujatosťami a nerovnosťami. Možno ste si vedomí toho, že keď sa rozbehla najnovšia éra AI, došlo k obrovskému výbuchu nadšenia pre to, čo niektorí dnes nazývajú AI pre dobro. Bohužiaľ, v pätách tohto tryskajúceho vzrušenia sme začali byť svedkami AI pre zlé. Napríklad sa ukázalo, že rôzne systémy na rozpoznávanie tváre založené na AI obsahujú rasové a rodové predsudky, o ktorých som diskutoval na odkaz tu.

Snahy brániť sa AI pre zlé aktívne prebiehajú. Okrem hlučného právne v snahe o zvládnutie previnenia existuje aj výrazný tlak na prijatie etiky AI, aby sa napravila odpornosť AI. Myšlienka je taká, že by sme mali prijať a podporiť kľúčové etické princípy AI pre vývoj a zavádzanie AI, aby sme podkopali AI pre zlé a súčasne ohlasovať a podporovať preferované AI pre dobro.

V súvislosti s tým som zástancom pokusu použiť AI ako súčasť riešenia problémov s AI a bojovať s ohňom ohňom týmto spôsobom myslenia. Mohli by sme napríklad vložiť etické komponenty AI do systému AI, ktorý bude monitorovať, ako zvyšok AI robí veci, a tak potenciálne zachytiť v reálnom čase akékoľvek diskriminačné snahy, pozri moju diskusiu na odkaz tu. Mohli by sme mať aj samostatný systém AI, ktorý funguje ako typ monitora etiky AI. Systém AI slúži ako dozorca na sledovanie a zisťovanie, kedy sa iná AI dostane do neetickej priepasti (pozri moju analýzu takýchto schopností na odkaz tu).

O chvíľu sa s vami podelím o niekoľko základných princípov, ktoré sú základom etiky AI. Takýchto zoznamov sa tu a tam pohybuje veľa. Dalo by sa povedať, že zatiaľ neexistuje jednotný zoznam univerzálnej príťažlivosti a súbežnosti. To je tá nešťastná správa. Dobrou správou je, že aspoň existujú ľahko dostupné zoznamy etiky AI a bývajú dosť podobné. Celkovo to naznačuje, že formou rozumnej konvergencie svojho druhu nachádzame cestu k všeobecnej zhode toho, z čoho pozostáva etika umelej inteligencie.

Uvádzam to, aby som poskytol základ pre moju diskusiu v tomto dokumente, ktorá sa zameria na konkrétny segment alebo časť širšej oblasti etiky AI, konkrétne, ako už bolo spomenuté, na špecifický prvok predsudkov AI. Dôvodom, prečo s vami zdieľam túto tému, je aj to, že dokument vydaný Národným inštitútom pre štandardy a technológie (NIST) sa nás snaží prinútiť, aby sme sa posunuli smerom k štandardu charakterizujúcemu zaujatosti AI. Dokument je oprávnený Smerom k štandardu pre identifikáciu a riadenie zaujatosti v umelej inteligencii Autormi Reva Schwartz, Apostol Vassilev, Kristen Greene, Lori Perine, Andrew Burt a Patrick Hall a bol publikovaný Ministerstvom obchodu USA, špeciálna publikácia NIST 1270, v marci 2022.

Rozbalíme toto praktické a povzbudivé úsilie o zistenie toho, čo máme na mysli pod pojmom AI zaujatosti. Staré príslovie hovorí, že nemôžete riadiť to, čo nemôžete merať. Tým, že máte štandard, ktorý stanovuje rôzne odchýlky AI, môžete začať merať a riadiť pohromu AI.

Najprv si stručne popíšme niektoré z celkových etických zásad AI, aby sme ilustrovali, čo by malo byť životne dôležitým faktorom pre každého, kto vytvára, využíva alebo používa AI.

Napríklad, ako uvádza Vatikán v Rím vyzýva na etiku AI a ako som sa podrobne venoval odkaz tuToto je ich identifikovaných šesť základných etických princípov AI:

  • transparentnosť: V zásade musia byť systémy AI vysvetliteľné
  • začlenenie: Potreby všetkých ľudských bytostí musia byť brané do úvahy, aby z toho mohol mať úžitok každý, a aby všetkým jednotlivcom mohli byť ponúknuté najlepšie možné podmienky na sebavyjadrenie a rozvoj.
  • odpovedá: Tí, ktorí navrhujú a nasadzujú používanie AI, musia postupovať zodpovedne a transparentne
  • nestrannosť: Nevytvárajte ani nekonajte podľa zaujatosti, čím si zabezpečíte spravodlivosť a ľudskú dôstojnosť
  • Spoľahlivosť: Systémy AI musia byť schopné spoľahlivo fungovať
  • Bezpečnosť a súkromie: Systémy AI musia fungovať bezpečne a rešpektovať súkromie používateľov.

Ako uviedlo americké ministerstvo obrany (DoD) vo svojom Etické princípy používania umelej inteligencie a ako som sa podrobne venoval odkaz tuToto je ich šesť základných etických princípov AI:

  • Zodpovedný: Personál ministerstva obrany bude uplatňovať primeranú úroveň úsudku a starostlivosti, pričom zostane zodpovedný za vývoj, nasadenie a používanie schopností AI.
  • Spravodlivé: Ministerstvo podnikne premyslené kroky, aby minimalizovalo neúmyselné skreslenie schopností AI.
  • Vysledovateľné: Schopnosti umelej inteligencie ministerstva sa vyvinú a rozmiestnia tak, aby príslušní pracovníci primerane rozumeli technológiám, vývojovým procesom a prevádzkovým metódam použiteľným na schopnosti umelej inteligencie, a to aj s transparentnými a kontrolovateľnými metodológiami, zdrojmi údajov a návrhovým postupom a dokumentáciou.
  • spoľahlivosť: Schopnosti umelej inteligencie ministerstva budú mať explicitné, dobre definované využitie a bezpečnosť, zabezpečenie a efektívnosť takýchto schopností bude predmetom testovania a zabezpečenia v rámci týchto definovaných použití počas celého životného cyklu.
  • Riaditeľné: Ministerstvo navrhne a skonštruuje schopnosti AI tak, aby plnili zamýšľané funkcie, pričom majú schopnosť odhaliť a vyhnúť sa neúmyselným následkom a schopnosť odpojiť alebo deaktivovať nasadené systémy, ktoré prejavujú neúmyselné správanie.

Diskutoval som aj o rôznych kolektívnych analýzach etických princípov AI, vrátane toho, že som sa zaoberal súborom navrhnutým výskumníkmi, ktorí preskúmali a zhrnuli podstatu mnohých národných a medzinárodných etických zásad AI v článku s názvom „Globálna krajina etických zásad AI“ (zverejnená v príroda), a ktoré moje pokrytie skúma na odkaz tu, čo viedlo k tomuto kľúčovému zoznamu:

  • Priehľadnosť
  • Spravodlivosť a spravodlivosť
  • Neškodnosť
  • zodpovednosť
  • súkromia
  • dobročinnosť
  • Sloboda a autonómia
  • Verte
  • Udržateľnosť
  • dôstojnosť
  • Solidarita

Ako môžete priamo uhádnuť, pokúsiť sa určiť špecifiká, ktoré sú základom týchto princípov, môže byť mimoriadne ťažké. O to viac, snaha premeniť tieto široké princípy na niečo úplne hmatateľné a dostatočne podrobné na to, aby sa dali použiť pri vytváraní systémov AI, je tiež tvrdým orieškom. Celkovo je ľahké mávnuť rukou nad tým, čo sú to etické predpisy AI a ako by sa mali vo všeobecnosti dodržiavať, zatiaľ čo v kódovaní AI je oveľa komplikovanejšia situácia, keď musí ísť o skutočnú gumu, ktorá sa stretáva s vozovkou.

Princípy AI etiky majú využívať vývojári AI spolu s tými, ktorí riadia snahy o vývoj AI, a dokonca aj tí, ktorí v konečnom dôsledku nasadzujú a vykonávajú údržbu systémov AI. Všetky zainteresované strany počas celého životného cyklu vývoja a používania AI sa berú do úvahy v rámci dodržiavania zavedených noriem Etickej AI. Toto je dôležitý prvok, pretože zvyčajným predpokladom je, že „iba kóderi“ alebo tí, ktorí programujú AI, podliehajú etike AI. Ako už bolo spomenuté, na vymyslenie a nasadenie AI je potrebná dedina, v ktorej sa celá dedina musí vyznať a dodržiavať etické predpisy AI.

Základom mnohých z týchto kľúčových pravidiel etiky AI je zákerná povaha zaujatosti AI.

Rovnako ako balíček kariet by bolo určite šikovné, keby sme mohli nejakým spôsobom zoskupiť predsudky AI do súboru „oblekov“ alebo kategórií. Dokument NIST skutočne ponúka navrhované zoskupenie.

Navrhujú sa tri hlavné kategórie:

1) Systémové predsudky

2) Štatistické a výpočtové odchýlky

3) Ľudské predsudky

Je určite potrebné zvážiť, či všetky predsudky AI úhľadne zapadajú do jednej z týchto troch kategórií. Môžete s istotou tvrdiť, že niektoré predsudky AI spadajú do jednej, dvoch alebo všetkých troch kategórií súčasne. Okrem toho by ste mohli tvrdiť, že si zaslúži zmienku viac kategórií, ako napríklad štvrtá, piata, šiesta alebo viac sérií zoskupení.

Dúfam, že to je to, čo si myslíte, pretože musíme všetkých zapojiť do pomoci pri vytváraní týchto noriem. Ak vás hnevá spôsob, akým sa tieto štandardy najskôr formujú, vyzývam vás, aby ste túto energiu premenili na pomoc nám ostatným pri vytváraní týchto začínajúcich štandardov tak robustných a úplných, do akých sa dajú vytesať.

Zatiaľ sa môžeme bližšie pozrieť na navrhované tri kategórie a zistiť, s akou rukou sme sa doteraz zaoberali (áno, budem pokračovať v používaní analógie s balíčkom hracích kariet, v celom tomto napísanom diele môžete staviť svoj spodný dolár na toto nie tak skryté eso témy).

Čo znamená odvolávanie sa na systémové predsudky?

Dokument NIST hovorí: „Systémové predsudky vyplývajú z postupov a praktík konkrétnych inštitúcií, ktoré fungujú spôsobom, ktorý vedie k tomu, že určité sociálne skupiny sú zvýhodňované alebo zvýhodňované a iné sú znevýhodňované alebo devalvované. Nemusí to byť výsledkom akýchkoľvek vedomých predsudkov alebo diskriminácie, ale skôr toho, že väčšina dodržiava existujúce pravidlá alebo normy. Inštitucionálny rasizmus a sexizmus sú najbežnejšími príkladmi“ (všimnite si, že toto je len krátky úryvok a odporúčame čitateľom vidieť úplné vysvetlenie).

Umelá inteligencia vstupuje do zmesi systémových predsudkov tým, že poskytuje prostriedky na prenášanie a uplatňovanie týchto predsudkov v aplikáciách založených na AI. Kedykoľvek použijete softvér naplnený umelou inteligenciou, môže obsahovať množstvo predsudkov, ktoré sú už zapracované do systému prostredníctvom spoločností a priemyselných postupov, ktoré viedli k vytvoreniu AI. Podľa štúdie NIST: „Tieto predsudky sú prítomné v súboroch údajov používaných v AI a v inštitucionálnych normách, postupoch a procesoch v rámci životného cyklu AI a v širšej kultúre a spoločnosti.“

Ďalej zvážte súbor chýb, ktoré sú označené ako štatistické a výpočtové odchýlky.

V dokumente NIST sa uvádza toto: „Štatistické a výpočtové odchýlky pramenia z chýb, ktoré vznikajú, keď vzorka nie je reprezentatívna pre populáciu. Tieto zaujatosti vznikajú zo systematickej chyby, nie náhodnej a môžu sa vyskytnúť bez predsudkov, zaujatosti alebo diskriminačného zámeru. V systémoch AI sú tieto odchýlky prítomné v súboroch údajov a algoritmických procesoch používaných pri vývoji aplikácií AI a často vznikajú, keď sú algoritmy trénované na jednom type údajov a nie je možné extrapolovať nad rámec týchto údajov.

Tento typ štatistického a výpočtového skreslenia je často zapracovaný do systému AI, ktorý využíva strojové učenie (ML) a hlboké učenie (DL). Poukázanie na vážnu záležitosť súčasného ML/DL si vyžaduje súvisiacu vedľajšiu tangentu o tom, čo je AI a čo je ML/DL.

Uistime sa, že sme na rovnakej stránke o povahe dnešnej AI.

Dnes neexistuje žiadna umelá inteligencia, ktorá by bola vnímavá. Toto my nemáme. Nevieme, či bude vnímajúca AI možná. Nikto nemôže vhodne predpovedať, či dosiahneme vnímajúcu AI, ani to, či sa vnímajúca AI nejakým zázrakom spontánne objaví vo forme výpočtovej kognitívnej supernovy (zvyčajne označovanej ako singularita, pozri moje pokrytie na odkaz tu).

Typ AI, na ktorý sa zameriavam, pozostáva z necitlivej AI, ktorú máme dnes. Ak by sme chceli divoko špekulovať o cítiaci AI, táto diskusia by sa mohla uberať radikálne iným smerom. Vnímajúca AI by mala mať ľudské kvality. Mali by ste zvážiť, že vnímajúca AI je kognitívnym ekvivalentom človeka. Navyše, keďže niektorí špekulujú, že by sme mohli mať superinteligentnú AI, je možné, že takáto AI by mohla byť inteligentnejšia ako ľudia (pre môj prieskum superinteligentnej AI ako možnosti pozri pokrytie tu).

Nechajme veci viac pri zemi a zvážme dnešnú výpočtovú necitlivú AI.

Uvedomte si, že dnešná AI nie je schopná „myslieť“ žiadnym spôsobom na rovnakej úrovni ako ľudské myslenie. Keď komunikujete s Alexou alebo Siri, konverzačné schopnosti sa môžu zdať podobné ľudským schopnostiam, ale realita je taká, že sú výpočtové a chýba im ľudské poznanie. Najnovšia éra AI vo veľkej miere využíva strojové učenie a hlboké učenie, ktoré využívajú porovnávanie výpočtových vzorov. To viedlo k systémom AI, ktoré vyzerajú ako ľudské sklony. Medzitým dnes neexistuje žiadna umelá inteligencia, ktorá by mala zdanie zdravého rozumu, ani žiadny z kognitívnych zázrakov robustného ľudského myslenia.

ML/DL je forma porovnávania výpočtových vzorov. Zvyčajný prístup je taký, že zhromažďujete údaje o úlohe rozhodovania. Dáta vložíte do počítačových modelov ML/DL. Tieto modely sa snažia nájsť matematické vzorce. Po nájdení takýchto vzorov, ak sa nájdu, systém AI potom použije tieto vzory pri stretnutí s novými údajmi. Po predložení nových údajov sa na vyvodenie aktuálneho rozhodnutia použijú vzory založené na „starých“ alebo historických údajoch.

Myslím, že viete hádať, kam to smeruje. Ak ľudia, ktorí sa rozhodovali podľa vzoru, začlenili do seba nepriaznivé predsudky, je pravdepodobné, že údaje to odrážajú jemným, ale významným spôsobom. Zhoda výpočtových vzorov Machine Learning alebo Deep Learning sa jednoducho pokúsi zodpovedajúcim spôsobom matematicky napodobniť údaje. Neexistuje žiadne zdanie zdravého rozumu alebo iných vnímavých aspektov modelovania vytvoreného AI ako takého.

Okrem toho si vývojári AI nemusia uvedomiť, čo sa deje. Tajomná matematika v ML/DL môže sťažiť odhalenie teraz skrytých predsudkov. Oprávnene by ste dúfali a očakávali, že vývojári AI budú testovať potenciálne skryté predsudky, hoci je to zložitejšie, ako by sa mohlo zdať. Existuje solídna šanca, že aj pri relatívne rozsiahlom testovaní budú v modeloch zhody vzorov ML/DL stále zakomponované odchýlky.

Do istej miery by ste mohli použiť známe alebo neslávne známe príslovie o odpadkoch do odpadu. Ide o to, že je to skôr podobné zaujatostiam – in, ktoré sa zákerne naplnia, keď sa predsudky ponoria do AI. Algoritmus rozhodovania (ADM) AI je axiomaticky zaťažený nerovnosťami.

Nie dobré.

To nás privádza priamo k tretej kategórii súboru troch skupín NIST, konkrétne k úlohe ľudských predsudkov pri vzniku predsudkov AI. Tu je to, čo dokument NIST naznačil: „Ľudské predsudky odrážajú systematické chyby v ľudskom myslení založené na obmedzenom počte heuristických princípov a predpovedanie hodnôt na jednoduchšie úsudkové operácie. Tieto predsudky sú často implicitné a majú tendenciu súvisieť s tým, ako jednotlivec alebo skupina vníma informácie (napríklad automatizovaný výstup AI), aby urobil rozhodnutie alebo doplnil chýbajúce alebo neznáme informácie. Tieto predsudky sú všadeprítomné v inštitucionálnych, skupinových a individuálnych rozhodovacích procesoch počas životného cyklu AI a pri používaní aplikácií AI po ich nasadení.“

Teraz ste dostali rýchly úvod do troch kategórií.

Rád by som sa s vami podelil o ďalšie námety na zamyslenie, ako je vyjadrené v dokumente NIST. Tabuľka v ich rozprávaní poskytuje užitočné zhrnutie kľúčových otázok a úvah, ktoré sú základom každej z troch sád predsudkov AI. Uvádzam ich tu pre vaše pohodlie pri referencii a poučení.

#1: Systémové predsudky

  • S kým sa počíta a s kým sa nepočíta?

— Problémy s latentnými premennými

— Nedostatočné zastúpenie marginalizovaných skupín

— Automatizácia nerovností

— Nedostatočné zastúpenie pri určovaní funkcie užitočnosti

— Procesy, ktoré uprednostňujú väčšinu/menšinu

— Kultúrna zaujatosť v objektívnej funkcii (najlepšie pre jednotlivcov vs. najlepšie pre skupinu)

  • Ako vieme, čo je správne?

— Posilnenie nerovností (skupiny sú viac ovplyvnené vyšším využívaním AI)

— Prediktívna policajná práca má väčší negatívny vplyv

— Široké prijatie spolujazdy/automobilov/automobilov/atď. môžu zmeniť politiky, ktoré ovplyvňujú populáciu na základe používania

#2: Štatistické a výpočtové odchýlky

  • S kým sa počíta a s kým sa nepočíta?

— Skreslenie výberu a výberu

— Používanie proxy premenných, pretože sa ľahšie merajú

— Zaujatosť automatizácie

— Likertova stupnica (od kategórie od ordinálnej po kardinálnu)

— Nelineárne vs lineárne

— Ekologický omyl

— Minimalizácia normy L1 vs. L2

— Všeobecné ťažkosti pri kvantifikácii kontextových javov

  • Ako vieme, čo je správne?

— Chýbajúca primeraná krížová validácia

— Zaujatosť prežitia

— Ťažkosti so spravodlivosťou

#3: Ľudské predsudky

  • S kým sa počíta a s kým sa nepočíta?

— Pozorovacie skreslenie (efekt pouličného svetla)

— Skreslenie dostupnosti (ukotvenie)

- McNamarov omyl

— Skupinové myslenie vedie k úzkym výberom

— Rashomonov efekt vedie k subjektívnej obhajobe

— Ťažkosti pri kvantifikácii cieľov môžu viesť k McNamarovmu omylu

  • Ako vieme, čo je správne?

— Potvrdzovacia zaujatosť

— Zaujatosť automatizácie

Stavil by som sa, že v tomto bode tejto závažnej diskusie túžite po niekoľkých názorných príkladoch, ktoré by mohli ukázať tri kategórie zaujatosti AI. Existuje špeciálny a určite populárny súbor príkladov, ktoré sú môjmu srdcu blízke. Viete, ako odborník na AI vrátane etických a právnych dôsledkov ma často žiadajú, aby som identifikoval realistické príklady, ktoré predstavujú dilemy etiky AI, aby bolo možné ľahšie pochopiť trochu teoretickú povahu tejto témy. Jednou z najviac evokujúcich oblastí, ktorá názorne prezentuje tento etický problém umelej inteligencie, je príchod skutočne samoriadiacich áut založených na AI. Bude to slúžiť ako praktický príklad použitia alebo príklad na rozsiahlu diskusiu na túto tému.

Tu je potom pozoruhodná otázka, ktorá stojí za zamyslenie: Osvetľuje príchod skutočne samoriadiacich áut založených na AI niečo o troch navrhovaných kategóriách skreslenia AI, a ak áno, čo to ukazuje?

Dovoľte mi chvíľu rozbaliť otázku.

Po prvé, všimnite si, že v skutočne samoriadiacom aute nie je žiadny ľudský vodič. Majte na pamäti, že skutočne samoriadiace autá sú poháňané systémom AI. Nie je potrebný ľudský vodič za volantom, ani neexistuje ustanovenie, aby vozidlo riadil človek. Pre moje rozsiahle a neustále pokrytie autonómnych vozidiel (AV) a najmä autonómnych áut viď odkaz tu.

Rád by som ďalej objasnil, čo sa myslí, keď hovorím o skutočne samoriadiacich autách.

Porozumenie úrovniam samoriadiacich automobilov

Pre vysvetlenie, skutočne samoriadiace autá sú tie, kde AI riadi auto úplne sama a pri riadení nie je žiadna asistencia človeka.

Tieto vozidlá bez vodiča sa považujú za úroveň 4 a úroveň 5 (pozri moje vysvetlenie na tento odkaz tu), zatiaľ čo auto, ktoré vyžaduje, aby sa ľudský vodič podieľal na riadení, sa zvyčajne považuje za úroveň 2 alebo úroveň 3. Autá, ktoré sa podieľajú na úlohe riadenia, sú opísané ako poloautonómne a zvyčajne obsahujú rôzne automatizované doplnky, ktoré sa označujú ako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 ešte nie je skutočné samoriadiace auto a ešte ani nevieme, či to bude možné dosiahnuť, ani ako dlho bude trvať, kým sa tam dostaneme.

Medzitým sa úsilie úrovne 4 postupne pokúša získať určitú trakciu podstupovaním veľmi úzkych a selektívnych testov na verejných cestách, hoci existuje polemika o tom, či by toto testovanie malo byť povolené ako také (v experimente sme všetci pokusnými králikmi na život a na smrť). ktoré sa odohrávajú na našich diaľniciach a vedľajších cestách, niektorí tvrdia, pozri moje spravodajstvo na tento odkaz tu).

Keďže poloautonómne automobily si vyžadujú vodiča, prijatie týchto typov automobilov sa nebude výrazne líšiť od riadenia konvenčných vozidiel, takže o tejto téme nie je samo o sebe veľa nových (ako vidíte, uvidíte) za okamih sa spravidla použijú nasledujúce body).

V prípade autonómnych automobilov je dôležité, aby verejnosť musela byť upozornená na rušivý aspekt, ktorý sa objavuje v poslednej dobe, a to napriek tomu, že napriek tým vodičom, ktorí neustále vysielajú svoje videá, ktoré zaspávajú za volantom automobilu úrovne 2 alebo 3 , musíme sa vyhnúť tomu, aby sme boli uvedení do omylu v presvedčenie, že vodič môže odvádzať svoju pozornosť od úlohy pri riadení čiastočne autonómneho vozidla.

Ste zodpovednou stranou za jazdné vlastnosti vozidla bez ohľadu na to, do akej miery by sa automatizácia mohla hodiť na úroveň 2 alebo úroveň 3.

Samoriadiace autá a predsudky AI

Pri vozidlách s vlastným riadením na úrovni 4 a 5 sa do úlohy vedenia vozidla nebude podieľať ľudský vodič.

Všetci cestujúci budú cestujúcimi.

AI robí jazdu.

Jedným z aspektov, o ktorých je potrebné okamžite diskutovať, je skutočnosť, že AI zapojená do dnešných systémov riadenia AI nie je vnímavá. Inými slovami, AI je celkom kolektív počítačového programovania a algoritmov a je nepochybne neschopný uvažovať rovnakým spôsobom ako ľudia.

Prečo je tento zvýšený dôraz na to, aby AI nebola vnímavá?

Pretože by som chcel zdôrazniť, že keď diskutujem o úlohe jazdného systému AI, nepripisujem AI ľudské vlastnosti. Uvedomte si, že v dnešnej dobe pretrváva nebezpečná tendencia k antropomorfizácii AI. Ľudia v podstate priraďujú dnešnému UI sentiment podobný človeku, a to aj napriek nepopierateľnému a nespochybniteľnému faktu, že zatiaľ taký AI neexistuje.

S týmto objasnením si môžete predstaviť, že systém riadenia umelej inteligencie nebude natívne nejako „vedieť“ o aspektoch riadenia. Vedenie vozidla a všetko, čo k tomu patrí, bude potrebné programovať ako súčasť hardvéru a softvéru samostatne riadeného automobilu.

Poďme sa ponoriť do nespočetného množstva aspektov, ktoré sa budú hrať na túto tému.

Po prvé, je dôležité si uvedomiť, že nie všetky autá s umelou inteligenciou sú rovnaké. Každá automobilka a technologická firma s vlastným pohonom pristupuje k navrhovaniu samoriadiacich áut. Preto je ťažké urobiť rozsiahle vyhlásenia o tom, čo AI riadiace systémy urobia alebo neurobia.

Okrem toho, kedykoľvek sa uvádza, že riadiaci systém AI nerobí konkrétne veci, neskôr to môžu predbehnúť vývojári, ktorí počítač v skutočnosti naprogramujú tak, aby to urobil. Krok za krokom sa systémy riadenia AI postupne vylepšujú a rozširujú. Existujúce obmedzenie dnes už nemusí existovať v budúcej iterácii alebo verzii systému.

Verím, že poskytne dostatočnú litániu výhrad, ktoré sú základom toho, o čom sa chystám hovoriť.

Teraz sme pripravení na to, aby sme sa hlboko ponorili do samoriadiacich áut a možností etiky AI, ktoré zahŕňajú tri kategórie predsudkov AI.

Predstavte si, že po uliciach vášho okolia premáva samojazdiace auto založené na AI a zdá sa, že jazdí bezpečne. Najprv ste venovali osobitnú pozornosť každému, keď sa vám podarilo zahliadnuť samoriadiace auto. Autonómne vozidlo vynikalo regálom s elektronickými senzormi, ktoré zahŕňali videokamery, radarové jednotky, zariadenia LIDAR a podobne. Po mnohých týždňoch samoriadiaceho auta, ktoré križovalo vašu komunitu, si to teraz sotva všimnete. Pokiaľ ide o vás, je to len ďalšie auto na už aj tak rušných verejných cestách.

Aby ste si nemysleli, že je nemožné alebo nepravdepodobné zoznámiť sa so samoriadiacimi autami, často som písal o tom, ako si miesta, ktoré sú v rámci skúšok samoriadiacich áut, postupne zvykli na vyšperkované vozidlá, pozri moju analýzu na tento odkaz tu. Mnohí z miestnych obyvateľov sa nakoniec preorientovali z dychtivého cikania s otvorenými ústami a teraz vydávajú rozsiahle zívanie nudy, aby boli svedkami kľukatiacich sa samoriadiacich áut.

Pravdepodobne hlavným dôvodom, prečo by si mohli všimnúť autonómne vozidlá, je faktor podráždenia a podráždenia. Bežné jazdné systémy AI zabezpečujú, že autá dodržiavajú všetky rýchlostné limity a pravidlá cestnej premávky. Pre hektických ľudských vodičov v ich tradičných autách poháňaných ľuďmi vás občas naštve, keď uviaznu za prísne zákonnými samoriadiacimi autami založenými na AI.

To je niečo, na čo si všetci musíme zvyknúť, či už oprávnene alebo nesprávne.

Späť k našej rozprávke.

Ďalej zvážime, ako by sa v tomto kontexte samoriadiacich áut mohli prejaviť systémové predsudky.

Niektorí učenci sa veľmi obávajú, že samoriadiace autá budú oblasťou len bohatých a elitných. Je možné, že náklady na používanie autonómnych áut budú neúmerne vysoké. Ak nemáte veľké peniaze, možno nikdy neuvidíte vnútro samoriadiaceho auta. Údajne sa tvrdí, že tí, ktorí budú využívať samoriadiace autá, budú musieť byť bohatí.

Niektorí preto znepokojujúco nabádajú, že s príchodom samoriadiacich áut založených na AI prenikne určitá forma systémovej zaujatosti. Celkový priemyselný systém autonómnych vozidiel ako celok udrží autonómne autá mimo dosahu tých, ktorí sú chudobní alebo menej bohatí. Nemusí to byť nevyhnutne zjavný zámer a len sa ukazuje, že jediný spôsob, ako získať späť zaťažujúce náklady na vynájdenie samoriadiacich áut, bude účtovanie neuveriteľne vysokých cien.

Ak odvetíte, že dnes existujú tieto skúšky samoriadiacich áut, ktoré umožňujú bežnému človeku používať, takže sa zdá byť zrejmé, že nemusíte byť sami bohatí, protiargumentom je, že ide o akúsi hru škrupiny. to bolo. Výrobcovia automobilov a samojazdiace technologické firmy sú údajne ochotné, aby to vyzeralo, že náklady nebudú podstatnou prekážkou. Robia to na účely vzťahov s verejnosťou práve teraz a zvýšia ceny, keď sa im podarí zistiť vrásky. Konšpirátor by mohol dokonca tvrdiť, že „pokusné králiky“ ako svetské osoby sú zhubne využívané, aby umožnili bohatým zbohatnúť.

Takže vzhľadom na túto dosť spornú záležitosť a vloženie vlastných dvoch centov na túto ohavnú tému neverím, že autonómne autá budú predražené na každodenné používanie. Nebudem tu zachádzať do podrobností, pokiaľ ide o môj základ pre takéto tvrdenie, a pozývam vás, aby ste si pozreli moje pozorné diskusie na adrese odkaz tu a tiež pri odkaz tu.

Ďalej môžeme zvážiť otázku štatistických a výpočtových skreslení súvisiacich s AI.

Zamyslite sa nad zdanlivo bezvýznamnou otázkou, kde sa budú samoriadiace autá túlať, aby nabrali cestujúcich. Zdá sa, že je to celkom neškodná téma. Použijeme príbeh o meste, ktoré má autonómne autá, aby sme zdôraznili možno prekvapivo potenciálne spektrum štatistických a výpočtových predsudkov súvisiacich s AI.

Najprv predpokladajme, že AI sa pohybovala v samoriadiacich autách po celom meste. Každý, kto chcel požiadať o odvoz v samoriadiacom aute, mal v podstate rovnakú šancu zavolať. Postupne začala AI primárne udržiavať samoriadiace autá v pohybe len v jednej časti mesta. Táto sekcia bola väčším zdrojom peňazí a systém AI bol naprogramovaný tak, aby sa pokúsil maximalizovať výnosy ako súčasť používania v komunite.

Členovia komunity v chudobných častiach mesta mali menšiu pravdepodobnosť, že sa budú môcť odviezť v samoriadiacom aute. Bolo to preto, že samoriadiace autá boli ďalej a pohybovali sa v časti s vyššími príjmami. Keď prišla požiadavka zo vzdialenej časti mesta, každá požiadavka z bližšieho miesta, ktorá bola pravdepodobne v „váženej“ časti mesta, by dostala vyššiu prioritu. Nakoniec, dostupnosť autonómneho auta na akomkoľvek inom mieste ako v bohatšej časti mesta bola takmer nemožná, čo je znepokojujúce pre tých, ktorí žili v tých oblastiach, kde teraz chýbajú zdroje.

Môžete tvrdiť, že AI do značnej miery pristála na forme štatistických a výpočtových skreslení, podobnej forme proxy diskriminácie (často označovanej aj ako nepriama diskriminácia). AI nebola naprogramovaná tak, aby sa vyhla chudobnejším štvrtiam. Namiesto toho sa to „naučil“ pomocou ML/DL.

Predpokladalo sa, že AI nikdy nespadne do takého hanebného pohyblivého piesku. Nebolo nastavené žiadne špecializované monitorovanie, ktoré by sledovalo, kam smerujú samoriadiace autá založené na AI. Až keď sa členovia komunity začali sťažovať, predstavitelia mesta si uvedomili, čo sa deje. Viac o týchto typoch celomestských problémov, ktoré budú predstavovať autonómne vozidlá a autá s vlastným riadením, nájdete v mojom spravodajstve na tento odkaz tu a ktorý popisuje štúdiu vedenú Harvardom, ktorej som sa na túto tému podieľal.

Pre tretiu kategóriu ľudských predsudkov súvisiacich s predsudkami AI sa obraciame na príklad, v ktorom AI určuje, či má zastaviť pre čakajúcich chodcov, ktorí nemajú právo prejsť cez ulicu.

Nepochybne ste šoférovali a stretli chodcov, ktorí čakali na prechod cez ulicu, no nemali na to prednosť. To znamenalo, že ste mali možnosť rozhodnúť sa, či zastaviť a nechať ich prejsť. Mohli by ste pokračovať bez toho, aby ste ich nechali prejsť, a pritom ste plne v rámci zákonných pravidiel jazdy.

Štúdie o tom, ako sa ľudskí vodiči rozhodujú, či zastaviť alebo nezastaviť pre takýchto chodcov, naznačujú, že niekedy sa ľudskí vodiči rozhodujú na základe nevhodných predsudkov. Ľudský vodič si môže prehliadnuť chodca a rozhodnúť sa nezastaviť, aj keď by zastavil, keby mal chodec iný vzhľad, napríklad na základe rasy alebo pohlavia. Skúmal som to na odkaz tu.

Predstavte si, že samoriadiace autá založené na AI sú naprogramované tak, aby riešili otázku, či zastaviť alebo nezastaviť pre chodcov, ktorí nemajú prednosť. Tu je návod, ako sa vývojári AI rozhodli naprogramovať túto úlohu. Údaje zbierali z mestských videokamier, ktoré sú rozmiestnené po celom meste. Údaje ukazujú ľudských vodičov, ktorí zastavia pre chodcov, ktorí nemajú prednosť, a ľudských vodičov, ktorí nezastavia. Všetko sa zhromažďuje do veľkého súboru údajov.

Pomocou strojového učenia a hlbokého učenia sa údaje modelujú výpočtovo. Riadiaci systém AI potom používa tento model na rozhodnutie, kedy zastaviť alebo nezastaviť. Všeobecne platí, že bez ohľadu na to, z čoho sa skladá miestny zvyk, AI takto riadi samoriadiace auto.

Na prekvapenie vedenia mesta a obyvateľov sa AI evidentne rozhodla zastaviť alebo nezastaviť na základe veku chodca. Ako sa to mohlo stať?

Pri bližšom preskúmaní videa o diskrétnosti ľudského vodiča sa ukazuje, že mnohé z prípadov nezastavenia sa týkali chodcov, ktorí mali palicu staršieho občana. Ľudskí vodiči zdanlivo neboli ochotní zastaviť a nechať staršieho človeka prejsť cez ulicu, pravdepodobne z dôvodu predpokladaného času, ktorý môže niekomu trvať, kým sa vydá na cestu. Ak chodec vyzeral, že môže rýchlo prejsť cez ulicu a minimalizovať čakaciu dobu vodiča, vodiči boli ochotnejší nechať osobu prejsť.

Toto sa hlboko zakopalo do systému riadenia AI. Senzory samoriadiaceho auta naskenujú čakajúceho chodca, vložia tieto údaje do modelu ML/DL a model oznámi AI, či má zastaviť alebo pokračovať. Akákoľvek vizuálna indikácia, že chodec môže pomaly prejsť, ako napríklad použitie palice, sa matematicky použila na určenie, či má systém riadenia AI nechať čakajúceho chodca prejsť alebo nie.

Mohli by ste tvrdiť, že to bolo spoliehanie sa na už existujúcu ľudskú zaujatosť.

záver

Zatiaľ niekoľko myšlienok na záver.

Existuje populárne príslovie, že nemôžete zmeniť karty, ktoré dostanete, a namiesto toho sa musíte naučiť, ako primerane hrať s akoukoľvek rukou, ktorú ste dostali.

V prípade zaujatosti AI, ak horlivo neprekročíme plošné zavádzanie etiky umelej inteligencie a najmä neupevníme charakteristiku zaujatosti umelej inteligencie, typy rúk, s ktorými sa budeme zaoberať, budú pretekať semenným neetickým, a možno nezákonnú vrstvu. Na začiatok musíme zastaviť rozdávanie týchto kariet. Statočný cieľ vytvoriť a propagovať etické štandardy AI je kľúčovým nástrojom na boj proti rastúcej cunami nadchádzajúcich AI pre zlé.

Rozhodne si môžete vziať do banky, že nekontrolovateľná zaujatosť AI a neetická AI budú ako chatrný domček z kariet, ktorý sa zrúti sám do seba a pravdepodobne bude pre nás všetkých katastrofálny.

Poďme hrať, aby sme vyhrali, a to s vhodne etickou AI.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- ai-biases/