Poučenie o etike umelej inteligencie a autonómnych systémoch získaných z nedávneho letu spoločnosti Alaska Airlines, kde pilot a druhý pilot nesúhlasili pred vzlietnutím a náhle sa rozhodli pre taxi späť do terminálu a ísť vlastnou cestou

Letecké spoločnosti sú v poslednom čase dosť v kurze.

Sme v letnej tiesni letov. Unavení a frustrovaní pasažieri čelia najrôznejším prerušeniam letov a deformáciám letových plánov. Lety sú neočakávane zrušené. Lety meškajú. Výpary cestujúcich. Žiaľ, vyskytlo sa veľa prípadov pasažierov, ktorí umožnili prepuknutie týchto nepokojov, a videli sme žalostne až príliš veľa virálnych videí o konfrontáciách hlava-nehlava a niekedy aj úderných pästiach.

Zriedkavejšie sa dozvedáme o sporoch medzi pilotom a druhým pilotom, ktoré môžu nastať v kokpite.

To je celkom prekvapenie.

Prirodzene sme zaskočení, keď si myslíme, že pilot a druhý pilot by mali v ktorejkoľvek fáze letu akýkoľvek náznak vážnej nezhody. Ak sa nezhoda týka toho, ktorá značka kávy je najlepšia, predpokladáme, že to nebude zasahovať do pracovného úsilia spojeného s riadením lietadla. Títo dvaja by jednoducho pokrčili ramenami, že si nedajú pohľad z očí do očí pri zdanlivo nepodstatnej téme. Ich profesionálne vystupovanie a dlhoročný pilotný výcvik by naštartovali a zamerali sa späť na letové detaily.

Zvážte však, keď a odborný nesúhlas zasahuje.

V krátkosti sa s vami podelím o široko publikovanú novinku o nedávnom prípade niečoho, čo sa stalo počas letu v USA v súvislosti s údajnými profesionálnymi nezhodami v kokpite.

Toto je tu hlavne citované, aby sme mohli preskúmať súvisiacu tému, ktorá je veľmi dôležitá pre nástup umelej inteligencie (AI). Vidíte, môže existovať určitá forma, povedzme, profesionálnej nezhody nielen medzi ľuďmi v nezhode medzi ľuďmi, ale môže dôjsť aj k niečomu podobnému uprostred prijatia umelej inteligencie, z čoho vyplývajú profesionálne nezhody človek verzus AI. . Vynárajú sa všetky druhy úvah o etike AI. Moje rozsiahle a neustále pokrytie etiky AI a etickej problematiky AI nájdete v časti odkaz tu a odkaz tu, len aby sme vymenovali aspoň niektoré.

Pripravte sa na fascinujúci príbeh.

Ako sa nedávno uvádzalo v správach, prípad „odborného nesúhlasu“ sa zjavne objavil počas letu Alaska Airline, ktorý smeroval z Washingtonu do San Francisca. Podľa správ sa let vzdialil od brány a čakal na asfalte na povolenie na taxi a let. Prebiehala búrka, ktorá spôsobila meškanie letu viac ako hodinu a pol. Ukázalo sa, že lietadlo sa nakoniec otočilo a zamierilo späť k bráne, o ktorej niektorí cestujúci mohli normálne predpokladať, že išlo len o bezpečnostné opatrenie súvisiace s búrkou.

Podľa rôznych tweetov sa zdá, že pilot a druhý pilot mali počas svojho pobytu v kokpite nejaký spor mimo dohľadu a nejako dospeli k záveru, že najrozumnejším prístupom by bolo vydrhnúť let a vrátiť sa do terminálu. . Tweety naznačovali, že kapitán a prvý dôstojník spolu zjavne nemôžu vychádzať. Letecká spoločnosť neskôr vydala vyhlásenie, že situácia bola nešťastná (situácia nebola explicitne uvedená ani vysvetlená per se), dvoch palubných dôstojníkov vedenie vyhodnotilo a považovalo za spôsobilých na let, vymenili sa posádky a let sa nakoniec uskutočnil. a neskôr sa dostali do San Francisca.

V istom zmysle, ak v skutočnosti medzi pilotom a druhým pilotom došlo k profesionálnej nezhode, napríklad či je lietadlo vhodne pripravené na let alebo či je riziko preletu cez búrku v rámci vhodného bezpečnostného rozsahu, títo pasažieri by mali byť oslobodení a vďačný, že sa lietadlo vrátilo k bráne. Radšej byť v bezpečí ako ľutovať. Dodatočné meškanie stojí za predpokladané zníženie rizík spojených s uvažovanou drsnou alebo nepriaznivou letovou cestou.

Niekoho možno prekvapí, že môže vzniknúť taká odborná nezhoda.

Možno máme mylný dojem, že všetko, čo sa deje v kokpite, je úplne presné a dobre napísané. Všetky formy ľudského uváženia boli z tohto procesu zdanlivo vyžmýkané. Na základe presných a dôkladne vypočítaných máp je let buď v poriadku pokračovať, alebo nie. Nemôže existovať žiadny nesúhlas, keď sa predpokladá, že celá súprava a kaboodle sú založené na nevyvrátiteľnom počte faktov a čísel.

To nie je úplná pravda veci. Iste, existuje množstvo protokolov a všetkých druhov bŕzd a protiváh, ale to nevytlačí všetok ľudský úsudok. Piloti a kopiloti stále uplatňujú ľudský úsudok. Našťastie je tento ľudský úsudok vybrúsený rokmi lietania. Je pravdepodobné, že pilot a druhý pilot v komerčnom osobnom lietadle majú množstvo predchádzajúcich letových skúseností a pohotovo využívajú svoje dlhoročné hĺbkové uvažovanie a úsudky spojené s riadením letu.

Vzhľadom na významnú úlohu ľudského úsudku by sme mohli logicky predpokladať, že pilot a druhý pilot budú mať niekedy profesionálne nezhody. Väčšinu času je pravdepodobne veľmi málo takýchto nezhôd. Pilot a druhý pilot pre každodenné lety budú pravdepodobne dobre zosúladení s prevahou času. Len keď by sa scenár letu mohol dostať mimo konvenčných hraníc, očakávali by sme, že dôjde k napätiu.

Ak je medzi nimi výrazný rozdiel v názoroch, trúfol by som si povedať, že chceme, aby to uhádli.

Predstavte si situáciu, že pilot chce tvrdohlavo pokračovať, ale druhý pilot vníma, že riziká sú príliš vysoké. Len keby sa druhý pilot klaňal pilotovi, zdalo by sa nežiaduce. Druhý pilot je kontrola a vyváženie toho, čo by mohol pilot uvažovať. Pre tých, ktorí chcú, aby druhý pilot mlčal a konal bezmyšlienkovito podľa toho, čo pilot nariadi, to nie je veľká istota. Kopilot nie je len náhradný „pilot“, ktorý vstupuje do obrazu iba vtedy, keď je pilot úplne neschopný. To je pomýlené chápanie hodnoty pilota a druhého pilota v kokpite.

Je tu aj iný uhol pohľadu.

Zoberme si prípad pilota, ktorý neverí, že let by mal pokračovať, a zatiaľ čo druhý pilot sa snaží vstať do vzduchu. Čo potom? Podľa očakávanej hierarchie má pilot konvenčne prevládať nad druhým pilotom. Určená úloha byť hlavným zodpovedným robí pilota väčším z toho, čo je inak do istej miery rovnaké. Normálne má pilot viac celkového času letu ako druhý pilot, a preto sa od druhého pilota hierarchicky predpokladá, že sa podriadi želaniam pilota (ak je to v rozumnej miere).

V každom prípade si myslím, že sa všetci zhodneme na tom, že rozhodnúť sa nelietať je určite menej riskantná voľba ako rozhodnúť sa lietať. Akonáhle je lietadlo vo vzduchu, úroveň rizika je enormná v porovnaní s pobytom na akejkoľvek bežnej stabilnej zemi. Zvyčajný komerčný let, pri ktorom sa jednoducho taxíkom vráti späť k terminálu bez toho, aby sa dostal do vzduchu, by bolo celkom priateľské riešenie akejkoľvek vášnivej diskusie o lietaní.

Zaraďme rýchlosť a použime túto odvážnu novinku na úplne iný, no príbuzný účel.

Postupne medzi nami prevládajú autonómne systémy založené na AI. Niekedy predstavenie riadi AI. Umelá inteligencia robí všetko od A po Z a môžeme si to predstaviť ako AI, ktorá je úplne autonómna alebo takmer taká. V iných prípadoch môžeme mať AI, ktorá interaguje a je do určitej miery naprogramovaná tak, aby sa spoliehala na to, že má človeka v slučke.

Chcel by som sa sústrediť na záležitosť autonómneho alebo poloautonómneho systému založeného na AI, v ktorom je od začiatku človek. Umelá inteligencia a človek sú zámerne zrazené dohromady a predpokladá sa, že spolu pracujú v tandeme. Sú to kohorty pri vykonávaní konkrétnej úlohy. Samotná AI by nemala vykonávať úlohu. AI musí interagovať s určeným človekom v slučke.

Túto charakteristiku uvádzam na odlíšenie od situácií, v ktorých sa človek v slučke považuje za voliteľný aspekt. V podstate má AI voľnú ruku. Ak sa AI rozhodne využiť človeka, nech tak urobí. Neexistuje žiadna požiadavka, aby sa AI dotkla základne s určeným človekom alebo s ním pracovala ruka v ruke. Analýzy, ktoré sa chystám uviesť, sú určite relevantné pre tento druh voliteľný usporiadanie interakcie, ale to nie je to, o čo konkrétne idem v tejto konkrétnej diskusii.

Dobre, takže máme nejakú úlohu, na ktorej budú ľudia a AI spolupracovať, neoddeliteľne od seba. V abstraktnom zmysle máme na jednom sedadle človeka a na druhom sprievodnom sedadle systém AI. Hovorím to drzo, pretože túto diskusiu neobmedzujeme napríklad na robota, ktorý by v skutočnosti mohol sedieť na sedadle. Metaforicky narážam na predstavu, že AI sa niekde podieľa na úlohe a rovnako aj človek. Fyzicky ich miesto pobytu nie je pre diskusiu mimoriadne dôležité.

Možno si nie ste istí, kedy môže takáto okolnosť nastať.

Brnkačka.

Neskôr budem diskutovať o nástupe autonómnych vozidiel a áut s vlastným riadením. Na určitých úrovniach autonómie by AI a človek mali spolupracovať. AI môže riadiť auto a požiadať človeka, aby prevzal riadenie. Človek môže riadiť auto a aktivovať AI, aby prevzala ovládanie. Striedajú sa pri riadení jazdy.

Navyše, niektoré návrhy majú AI v podstate aktívnu po celý čas (alebo, pokiaľ nie je vypnutá), takže AI je vždy pripravená. Okrem toho môže AI priamo zasiahnuť, dokonca aj bez toho, aby o to človek požiadal, v závislosti od situácie, ktorá sa vyvíja. Predpokladajme napríklad, že sa zdá, že človek zaspal za volantom. Keďže človek zdanlivo nemôže aktivovať AI (pretože osoba spí), AI môže byť naprogramovaná tak, aby prevzala ovládanie od človeka.

Niektoré dizajny prinášajú AI a ľudí do dvojitého prístupu k riadeniu. AI riadi a človek riadi. Alebo, ak chcete, šoféruje človek a šoféruje aj AI. Každý z nich riadi vozidlo. Prirovnávam to k tým špeciálne upraveným autám, ktoré ste možno používali pri výcviku vodičov a vo vozidle boli dve sady ovládacích prvkov, jedna pre vodiča študenta a jedna pre inštruktora autoškoly.

To je len jeden príklad prostredia, v ktorom AI a ľudia môžu pracovať spoločne na úlohe. Existujú všetky druhy možností. Podobne môžu byť navrhnuté aj iné druhy autonómnych vozidiel, ako sú lietadlá, drony, ponorky, povrchové lode, vlaky atď. Nemusíme brať do úvahy len nastavenie vozidla a dopravy. Predstavte si lekársku oblasť a operácie, ktoré spoločne vykonávajú lekár a systém AI. Zoznam je nekonečný.

Skoro mám chuť odkázať na ten klasicky búrlivý vtip o človeku a AI, ktorí spolu vojdú do baru. Pre tých, ktorí majú radi AI, je to celkom na smiech.

Vážne, vráťme sa k zameraniu človeka a systému AI, ktorí spolupracujú na danej úlohe. Po prvé, chcem sa vyhnúť antropomorfizácii AI, čo je niečo, čo budem zdôrazňovať v celom texte. AI nie je vnímavá. Majte to prosím na pamäti.

Tu je niečo na zamyslenie: Bude určený človek-in-the-loop vždy úplne súhlasiť s AI v spoločnom tíme?

Pri akejkoľvek zložitej úlohe by sa zdalo nepravdepodobné, že človek a AI budú úplne a vždy úplne v úzadí. Človek môže pri niektorých príležitostiach nesúhlasiť s AI. Tento predpoklad môžeme vziať až do banky.

Bol by som rád, keby ste zvážili aj túto možno prekvapivú možnosť: Bude AI vždy úplne súhlasiť s určeným človekom v slučke?

Opäť platí, že pre akúkoľvek komplexnú úlohu by sa zdalo celkom predstaviteľné, že AI nebude v niektorých prípadoch súhlasiť s ľuďmi. Ak sa už prikláňate k myšlienke, že AI sa musí vždy mýliť, zatiaľ čo ľudia musia mať vždy pravdu, bolo by rozumné prehodnotiť tento unáhlený záver. Predstavte si auto, ktoré má človeka a AI, ktorí spoločne riadia poloautonómne vozidlo. Človek smeruje k tehlovej stene. prečo? Nevieme, možno je človek pod vplyvom alkoholu alebo zaspal, ale vieme, že naraziť do tehlovej steny nie je dobrý nápad, ak je všetko rovnaké. Umelá inteligencia môže odhaliť blížiacu sa katastrofu a pokúsiť sa odvrátiť od hroziacej bariéry.

Celkovo povedané, budeme mať jasnú možnosť, že AI a ľudia budú navzájom nesúhlasiť. Iný spôsob, ako povedať to isté, je, že ľudia a AI navzájom nesúhlasia. Všimnite si, že nechcem, aby zoradenie AI-a-človek verzus človek-a-AI naznačovalo niečo o smere alebo pravdepodobnosti nezhody.

Dvaja pracovníci, jeden človek a jeden, ktorý je AI, spolu nesúhlasia.

Mohli by sme vopred vyhlásiť, že kedykoľvek dôjde k nezhode medzi danou AI a daným človekom, vopred vyhlásime, že človek prevláda nad AI. Ako už bolo povedané, môj názorný príklad o aute, ktoré mieri do tehlovej steny, by nás zrejme presvedčil, že človek bude mať vždy nevyhnutne pravdu.

Na rozdiel od toho by sme sa mohli rozhodnúť vopred vyhlásiť, že vždy, keď vznikne nezhoda, vopred potvrdíme, že AI má pravdu a človek sa mýli. Ani toto nie je rozumne zovšeobecniteľné ustanovenie. Predstavte si auto, v ktorom má AI nejakú zabudovanú softvérovú chybu alebo chybu a AI sa snaží nasmerovať vozidlo z cesty do priekopy. Za predpokladu, že všetko ostatné je rovnaké, človek by mal byť schopný prekonať túto AI jazdu a zabrániť vozidlu pristáť v žľabe.

Urobme si rýchle zhrnutie:

  • Bude človek v slučke vždy úplne súhlasiť s AI? Odpoveď: Nie.
  • Bude AI vždy úplne súhlasiť s človekom v slučke? Odpoveď: No.
  • Bude mať človek-in-the-loop vždy pravdu v porovnaní s AI? Odpoveď: Nie nevyhnutne.
  • Bude mať AI vždy pravdu v porovnaní s človekom v slučke? Odpoveď: Nie nevyhnutne.

Určite môžete nastaviť AI tak, aby bola štandardne považovaná za „nesprávnu“ alebo slabšiu stranu, a preto sa vždy, keď sa objaví nezhoda, podriaďuje človeku. Podobne môžete AI nastaviť tak, aby predpokladala, že AI sa považuje za „správnu“ vždy, keď človek nesúhlasí s AI. Chcem objasniť, že ak si to želáme, môžeme to urobiť programovo. Tvrdím však, že vo všeobecnosti to tak nebude vždy. Určite existujú situácie, v ktorých vopred nevieme, či má AI „správne“ alebo „správne“ má človek, pokiaľ ide o rozhodovanie sa voči jednému alebo druhému v nezhode súvisiacej s danou úlohou.

Priviedol som vás k veľmi dôležitej a veľmi komplikovanej otázke.

Čo by sme mali robiť, keď dôjde k profesionálnej nezhode medzi človekom v slučke a AI (alebo ekvivalentne to môžeme formulovať ako medzi AI a človekom v slučke)?

Nesnažte sa vyhnúť otázke.

Niekto by mohol namietať, že sa to nikdy nestane, ale ako som uviedol vo svojom príklade o aute, určite sa to môže stať. Niektorí by mohli namietať, že človek je zjavne nadradený a musí byť víťazom akejkoľvek nezhody. Môj príklad auta a tehlovej steny to zrazí. Existujú zástancovia umelej inteligencie, ktorí môžu trvať na tom, že víťazom musí byť umelá inteligencia, a to vďaka zdanlivému prekonaniu ľudských emócií a svojvoľného myslenia tými náhodne fuzzy mysliacimi ľuďmi. Ešte raz, môj ďalší príklad zahŕňajúci auto smerujúce do priekopy podkopáva toto tvrdenie.

V skutočnom svete sa AI a ľudia nezhodnú, aj keď sa títo dvaja zámerne dostanú do tímovej situácie, aby vykonali spoločne vykonanú úlohu. Stane sa to. Nemôžeme strčiť hlavu do piesku a tváriť sa, že sa to nestane.

Videli sme, že ľudia, ktorí riadili lietadlo, sa zjavne nezhodli. Našťastie sa dohodli na nesúhlase, tak sa zdá. Lietadlo priviezli späť na terminál. Našli spôsob, ako sa vysporiadať s nezhodou. Vyriešenie ich nesúhlasu dopadlo dobre, v porovnaní s tým, keby sa možno bili päsťami v kokpite alebo možno vyleteli do vzduchu a pokračovali vo vzájomnom boji. Je to smutný scenár, ktorý je neudržateľný a môžeme byť vďační, že sa tak nestalo.

Dovoľte mi uviesť môj zoznam rôznych spôsobov, ktorými možno vyriešiť nezhody týkajúce sa AI a človeka v slučke (alebo nezhody človek v slučke a AI):

  • AI a ľudia v tíme vyriešia veci (priateľsky alebo nie)
  • Človek štandardne prevláda nad AI
  • AI štandardne prevláda nad človekom
  • V predvolenom nastavení prevláda niektoré iné vopred určené pevné rozlíšenie
  • Osoba tretej strany je zapojená do slučky a jej označenie prevažuje nad stranami
  • Umelá inteligencia tretej strany je zapojená do slučky a jej indikácia má prednosť pred stranami
  • Človek tretej strany nahrádza existujúceho človeka, veci pokračujú nanovo
  • Umelá inteligencia tretích strán nahrádza existujúcu AI, veci pokračujú odznova
  • Človek tretej strany nahrádza existujúcu AI, veci pokračujú nanovo (teraz z človeka na človeka)
  • Umelá inteligencia tretej strany nahrádza existujúceho človeka, veci pokračujú odznova (teraz AI-na-AI)
  • ostatné

Tie sú bohato hodné rozbalenia.

Predtým, ako sa dostaneme k mäsu a zemiakom o divokých a vlnených úvahách, ktoré sú základom toho, ako sa vysporiadať s AI a ľudskými nezhodami, položme si niekoľko ďalších základov na úplne zásadné témy. Musíme sa krátko ponoriť do etiky umelej inteligencie a najmä do nástupu strojového učenia (ML) a hlbokého učenia (DL).

Možno ste si matne uvedomovali, že jeden z najhlasnejších hlasov v súčasnosti v oblasti AI a dokonca aj mimo oblasti AI pozostáva z volania po väčšej podobe Etickej AI. Poďme sa pozrieť na to, čo znamená odvolávať sa na etiku umelej inteligencie a etickú umelú inteligenciu. Okrem toho preskúmame, čo mám na mysli, keď hovorím o strojovom učení a hĺbkovom učení.

Jeden konkrétny segment alebo časť etiky umelej inteligencie, ktorá si získala veľkú pozornosť médií, pozostáva z umelej inteligencie, ktorá sa prejavuje nežiaducimi zaujatosťami a nerovnosťami. Možno ste si vedomí toho, že keď sa rozbehla najnovšia éra AI, došlo k obrovskému výbuchu nadšenia pre to, čo niektorí dnes nazývajú AI pre dobro. Bohužiaľ, v pätách tohto tryskajúceho vzrušenia sme začali byť svedkami AI pre zlé. Napríklad sa ukázalo, že rôzne systémy na rozpoznávanie tváre založené na AI obsahujú rasové a rodové predsudky, o ktorých som diskutoval na odkaz tu.

Snahy brániť sa AI pre zlé aktívne prebiehajú. Okrem hlučného právne v snahe o zvládnutie previnenia existuje aj výrazný tlak na prijatie etiky AI, aby sa napravila odpornosť AI. Myšlienka je taká, že by sme mali prijať a podporiť kľúčové etické princípy AI pre vývoj a zavádzanie AI, aby sme podkopali AI pre zlé a súčasne ohlasovať a podporovať preferované AI pre dobro.

V súvislosti s tým som zástancom pokusu použiť AI ako súčasť riešenia problémov s AI a bojovať s ohňom ohňom týmto spôsobom myslenia. Mohli by sme napríklad vložiť etické komponenty AI do systému AI, ktorý bude monitorovať, ako zvyšok AI robí veci, a tak potenciálne zachytiť v reálnom čase akékoľvek diskriminačné snahy, pozri moju diskusiu na odkaz tu. Mohli by sme mať aj samostatný systém AI, ktorý funguje ako typ monitora etiky AI. Systém AI slúži ako dozorca na sledovanie a zisťovanie, kedy sa iná AI dostane do neetickej priepasti (pozri moju analýzu takýchto schopností na odkaz tu).

O chvíľu sa s vami podelím o niekoľko základných princípov, ktoré sú základom etiky AI. Takýchto zoznamov sa tu a tam pohybuje veľa. Dalo by sa povedať, že zatiaľ neexistuje jednotný zoznam univerzálnej príťažlivosti a súbežnosti. To je tá nešťastná správa. Dobrou správou je, že aspoň existujú ľahko dostupné zoznamy etiky AI a bývajú dosť podobné. Celkovo to naznačuje, že formou rozumnej konvergencie svojho druhu nachádzame cestu k všeobecnej zhode toho, z čoho pozostáva etika umelej inteligencie.

Najprv si stručne popíšme niektoré z celkových etických zásad AI, aby sme ilustrovali, čo by malo byť životne dôležitým faktorom pre každého, kto vytvára, využíva alebo používa AI.

Napríklad, ako uvádza Vatikán v Rím vyzýva na etiku AI a ako som sa podrobne venoval odkaz tuToto je ich identifikovaných šesť základných etických princípov AI:

  • transparentnosť: V zásade musia byť systémy AI vysvetliteľné
  • začlenenie: Potreby všetkých ľudských bytostí musia byť brané do úvahy, aby z toho mohol mať úžitok každý, a aby všetkým jednotlivcom mohli byť ponúknuté najlepšie možné podmienky na sebavyjadrenie a rozvoj.
  • odpovedá: Tí, ktorí navrhujú a nasadzujú používanie AI, musia postupovať zodpovedne a transparentne
  • nestrannosť: Nevytvárajte ani nekonajte podľa zaujatosti, čím si zabezpečíte spravodlivosť a ľudskú dôstojnosť
  • Spoľahlivosť: Systémy AI musia byť schopné spoľahlivo fungovať
  • Bezpečnosť a súkromie: Systémy AI musia fungovať bezpečne a rešpektovať súkromie používateľov.

Ako uviedlo americké ministerstvo obrany (DoD) vo svojom Etické princípy používania umelej inteligencie a ako som sa podrobne venoval odkaz tuToto je ich šesť základných etických princípov AI:

  • Zodpovedný: Personál ministerstva obrany bude uplatňovať primeranú úroveň úsudku a starostlivosti, pričom zostane zodpovedný za vývoj, nasadenie a používanie schopností AI.
  • Spravodlivé: Ministerstvo podnikne premyslené kroky, aby minimalizovalo neúmyselné skreslenie schopností AI.
  • Vysledovateľné: Schopnosti umelej inteligencie ministerstva sa vyvinú a rozmiestnia tak, aby príslušní pracovníci primerane rozumeli technológiám, vývojovým procesom a prevádzkovým metódam použiteľným na schopnosti umelej inteligencie, vrátane transparentných a kontrolovateľných metodík, zdrojov údajov a návrhových postupov a dokumentácie.
  • spoľahlivosť: Schopnosti umelej inteligencie ministerstva budú mať explicitné, dobre definované využitie a bezpečnosť, zabezpečenie a efektívnosť takýchto schopností bude predmetom testovania a zabezpečenia v rámci týchto definovaných použití počas celého životného cyklu.
  • Riaditeľné: Ministerstvo navrhne a skonštruuje schopnosti AI tak, aby plnili zamýšľané funkcie, pričom majú schopnosť odhaliť a vyhnúť sa neúmyselným následkom a schopnosť odpojiť alebo deaktivovať nasadené systémy, ktoré prejavujú neúmyselné správanie.

Diskutoval som aj o rôznych kolektívnych analýzach etických princípov AI, vrátane toho, že som sa zaoberal súborom navrhnutým výskumníkmi, ktorí preskúmali a zhrnuli podstatu mnohých národných a medzinárodných etických zásad AI v článku s názvom „Globálna krajina etických zásad AI“ (zverejnená v príroda), a ktoré moje pokrytie skúma na odkaz tu, čo viedlo k tomuto kľúčovému zoznamu:

  • Priehľadnosť
  • Spravodlivosť a spravodlivosť
  • Neškodnosť
  • zodpovednosť
  • súkromia
  • dobročinnosť
  • Sloboda a autonómia
  • Verte
  • Udržateľnosť
  • dôstojnosť
  • Solidarita

Ako môžete priamo uhádnuť, pokúsiť sa určiť špecifiká, ktoré sú základom týchto princípov, môže byť mimoriadne ťažké. O to viac, snaha premeniť tieto široké princípy na niečo úplne hmatateľné a dostatočne podrobné na to, aby sa dali použiť pri vytváraní systémov AI, je tiež tvrdým orieškom. Celkovo je ľahké mávnuť rukou nad tým, čo sú to etické predpisy AI a ako by sa mali vo všeobecnosti dodržiavať, zatiaľ čo v kódovaní AI je oveľa komplikovanejšia situácia, keď musí ísť o skutočnú gumu, ktorá sa stretáva s vozovkou.

Princípy AI etiky majú využívať vývojári AI spolu s tými, ktorí riadia snahy o vývoj AI, a dokonca aj tí, ktorí v konečnom dôsledku nasadzujú a vykonávajú údržbu systémov AI. Všetky zainteresované strany počas celého životného cyklu vývoja a používania AI sa berú do úvahy v rámci dodržiavania zavedených noriem Etickej AI. Toto je dôležitý prvok, pretože zvyčajným predpokladom je, že „iba kóderi“ alebo tí, ktorí programujú AI, podliehajú etike AI. Ako už bolo spomenuté, na vymyslenie a nasadenie AI je potrebná dedina, v ktorej sa celá dedina musí vyznať a dodržiavať etické predpisy AI.

Uistime sa tiež, že sme na rovnakej stránke o povahe dnešnej AI.

Dnes neexistuje žiadna umelá inteligencia, ktorá by bola vnímavá. Toto my nemáme. Nevieme, či bude vnímajúca AI možná. Nikto nemôže vhodne predpovedať, či dosiahneme vnímajúcu AI, ani to, či sa vnímajúca AI nejakým zázrakom spontánne objaví vo forme výpočtovej kognitívnej supernovy (zvyčajne označovanej ako singularita, pozri moje pokrytie na odkaz tu).

Typ AI, na ktorý sa zameriavam, pozostáva z necitlivej AI, ktorú máme dnes. Ak by sme chceli divoko špekulovať o cítiaci AI, táto diskusia by sa mohla uberať radikálne iným smerom. Vnímajúca AI by mala mať ľudské kvality. Mali by ste zvážiť, že vnímajúca AI je kognitívnym ekvivalentom človeka. Navyše, keďže niektorí špekulujú, že by sme mohli mať superinteligentnú AI, je možné, že takáto AI by mohla byť inteligentnejšia ako ľudia (pre môj prieskum superinteligentnej AI ako možnosti pozri pokrytie tu).

Nechajme veci viac pri zemi a zvážme dnešnú výpočtovú necitlivú AI.

Uvedomte si, že dnešná AI nie je schopná „myslieť“ akýmkoľvek spôsobom na rovnakej úrovni ako ľudské myslenie. Keď komunikujete s Alexou alebo Siri, konverzačné schopnosti sa môžu zdať podobné ľudským schopnostiam, ale realita je taká, že sú výpočtové a chýba im ľudské poznanie. Najnovšia éra AI vo veľkej miere využíva strojové učenie (ML) a hlboké učenie (DL), ktoré využívajú porovnávanie výpočtových vzorov. To viedlo k systémom AI, ktoré vyzerajú ako ľudia. Medzitým dnes neexistuje žiadna umelá inteligencia, ktorá by mala zdanie zdravého rozumu, ani žiadny z kognitívnych zázrakov robustného ľudského myslenia.

ML/DL je forma porovnávania výpočtových vzorov. Zvyčajný prístup je taký, že zhromažďujete údaje o úlohe rozhodovania. Dáta vložíte do počítačových modelov ML/DL. Tieto modely sa snažia nájsť matematické vzorce. Po nájdení takýchto vzorov, ak sa nájdu, systém AI potom použije tieto vzory pri stretnutí s novými údajmi. Po predložení nových údajov sa na vyvodenie aktuálneho rozhodnutia použijú vzory založené na „starých“ alebo historických údajoch.

Myslím, že viete hádať, kam to smeruje. Ak ľudia, ktorí sa rozhodovali podľa vzoru, začlenili do seba nepriaznivé predsudky, je pravdepodobné, že údaje to odrážajú jemným, ale významným spôsobom. Zhoda výpočtových vzorov Machine Learning alebo Deep Learning sa jednoducho pokúsi zodpovedajúcim spôsobom matematicky napodobniť údaje. Neexistuje žiadne zdanie zdravého rozumu alebo iných vnímavých aspektov modelovania vytvoreného AI ako takého.

Okrem toho si vývojári AI nemusia uvedomiť, čo sa deje. Tajomná matematika v ML/DL môže sťažiť odhalenie teraz skrytých predsudkov. Oprávnene by ste dúfali a očakávali, že vývojári AI budú testovať potenciálne skryté predsudky, hoci je to zložitejšie, ako by sa mohlo zdať. Existuje solídna šanca, že aj pri relatívne rozsiahlom testovaní budú v modeloch zhody vzorov ML/DL stále zakomponované odchýlky.

Do istej miery by ste mohli použiť známe alebo neslávne známe príslovie o odpadkoch do odpadu. Ide o to, že je to skôr podobné zaujatostiam – in, ktoré sa zákerne naplnia, keď sa predsudky ponoria do AI. Algoritmus rozhodovania (ADM) AI je axiomaticky zaťažený nerovnosťami.

Nie dobré.

Vráťme sa k nášmu zameraniu na nezhody medzi AI a človekom.

Už som uviedol, že toto sú niektoré zo stratégií riešenia nezhôd:

  • AI a ľudia v tíme vyriešia veci (priateľsky alebo nie)
  • Človek štandardne prevláda nad AI
  • AI štandardne prevláda nad človekom
  • V predvolenom nastavení prevláda niektoré iné vopred určené pevné rozlíšenie
  • Osoba tretej strany je zapojená do slučky a jej označenie prevažuje nad stranami
  • Umelá inteligencia tretej strany je zapojená do slučky a jej indikácia má prednosť pred stranami
  • Človek tretej strany nahrádza existujúceho človeka, veci pokračujú nanovo
  • Umelá inteligencia tretích strán nahrádza existujúcu AI, veci pokračujú odznova
  • Človek tretej strany nahrádza existujúcu AI, veci pokračujú nanovo (teraz z človeka na človeka)
  • Umelá inteligencia tretej strany nahrádza existujúceho človeka, veci pokračujú odznova (teraz AI-na-AI)
  • ostatné

Je čas rozbaliť tieto veci.

Po prvé, zvážte, že toto je všetko o profesionálne nezhody.

Profesionálna nezhoda je voľne definovaná ako nezhoda spojená s pracovnou úlohou.

Napríklad nezhoda, ktorá vznikne medzi pilotom a druhým pilotom o tom, či pokračovať v lete, ktorý čelí búrke, by sa dala rozumne označiť za profesionálnu nezhodu. Naproti tomu vehementný nesúhlas o tom, ktorú značku kávy pilot obhajuje, oproti značke, ktorú uprednostňuje druhý pilot, sa v tomto konkrétnom kontexte ľahko kategorizuje ako neprofesionálny nesúhlas.

Samozrejme, ak sa neprofesionálny nesúhlas pretaví do profesionálneho, môže nás v konečnom dôsledku zaujímať neprofesionálny nesúhlas ako predpokladaný zdroj alebo iskra pre ten profesionálny. Predstavte si, že pilot a druhý pilot sa trpko hádajú o tom, ktorá značka kávy je najlepšia, čo sa potom, žiaľ, prenesie do problémov špecifických pre let (slovná hračka!), ako napríklad či vzlietnuť alebo nie.

Po druhé, musíme mať na pamäti rozsah profesionálnych nezhôd.

Možno pilot a druhý pilot alebo mierny nesúhlas s pokračovaním v lete. Nie sú v sporoch a iba uvažujú o výhodách a nevýhodách, či vzlietnuť. Toto nie je kalibr ani rozsah profesionálnych nezhôd, ktoré tu zvyčajne zvažujeme. Ide o to, že je možné, že odborná nezhoda je prechodná a obe strany sa dohodnú srdečne alebo aspoň včas. Vo všeobecnosti sú ohnisko profesionálnych nezhôd v rámci rozsahu také, ktoré sú zdanlivo neriešiteľné, a obe strany zotrvávajú v nezhode.

Po tretie, zvyčajne musí byť niečo vážne, aby tieto usmernenia vstúpili do hry.

Rozhodnutie letieť alebo neletieť je rozhodne rozhodnutím na život alebo na smrť, ak je let ohrozený v dôsledku búrky alebo ak sa lietadlo považuje za nie úplne pripravené na takúto cestu. Toto je seriózna záležitosť. Stále môžeme použiť usmernenia na menej vplyvné profesionálne nezhody, aj keď to môže byť viac obťažujúce, ako to stojí za to.

Dobre, naše úvahy sú nasledovné:

  • Nezhoda je v zásade zameraná skôr na profesiu ako na niečo neprofesionálne
  • Nezhoda je trvalého charakteru a nie je len prechodná alebo inak ľahko vyriešená
  • Nezhoda predpovedá vážne následky a zvyčajne má dopad
  • Strany sú sporné a zdajú sa byť nezvládnuteľné

Pozrime sa teraz bližšie na každý z mojich navrhovaných usmernení alebo prístupov týkajúcich sa toho, ako sa vyrovnať s takýmito profesionálnymi nezhodami.

AI a ľudia v tíme vyriešia veci (priateľsky alebo nie)

Zoznam začínam priamou možnosťou, že AI a ľudia v slučke sú schopní vyriešiť profesionálny nezhodu medzi sebou. Zdá sa, že tento druh okolností možno ilustruje prípad dvoch ľudí, pilota a druhého pilota. Nejako sa rozhodli vrátiť sa na terminál a ísť každý svojou cestou. Je možné, že systém umelej inteligencie a človek sú schopní nájsť prístup k riešeniu, ktorý je vo všeobecnosti uspokojivý pre obe strany, a tak je záležitosť uspokojivo uzavretá.

Človek štandardne prevláda nad AI

Pri nastavovaní AI by sme mohli naprogramovať pravidlo, ktoré hovorí, že človek v slučke má vždy prednosť, kedykoľvek dôjde k profesionálnej nezhode. Toto by bolo explicitne zakódované predvolené nastavenie. Mohli by sme tiež povoliť určitú formu prepísania, pre každý prípad, hoci platí pravidlo, že človek má prednosť.

AI štandardne prevláda nad človekom

Pri nastavovaní AI by sme mohli naprogramovať pravidlo, ktoré hovorí, že AI má vždy prednosť pred človekom v slučke, kedykoľvek dôjde k profesionálnej nezhode. Toto je explicitne zakódované predvolené nastavenie. Môžeme tiež povoliť určitú formu prepísania, pre každý prípad, hoci pravidlom bude, že AI prevláda.

V predvolenom nastavení prevláda niektoré iné vopred určené pevné rozlíšenie

Pri nastavovaní AI by sme mohli naprogramovať pravidlo, ktoré hovorí, že nejaké iné vopred určené pevné rozlíšenie bude prevládať vždy, keď vznikne profesionálny nezhoda s človekom v slučke. Human-in-the-loop štandardne neprevláda. AI štandardne neprevláda. Existuje ďalšie vopred určené uznesenie. Napríklad možno ide o hod mincou, ktorá sa použije na rozhodnutie, ktorá z dvoch strán sa považuje za správnu cestu. To by sa zjavne zdalo dosť svojvoľné; Ďalším príkladom prístupu by teda bolo, že sa spustí špecializované pravidlo, ktoré vypočíta hodnotu na základe vstupov od dvoch strán a dospeje k výsledku ako nerozhodný výsledok.

Osoba tretej strany je zapojená do slučky a jej označenie prevažuje nad stranami

Pri profesionálnej nezhode môže byť pravidlom, že je privolaná tretia strana, ktorou je človek, a zacyklená do prostredia, aby rozhodla o vyriešení nezhody. Umelá inteligencia je naprogramovaná tak, aby sa podriadila čomukoľvek, čo sa človek tretej strany rozhodne. Človek, ktorý je už v slučke, bol vopred poučený, že ak nastane takáto situácia, aj on sa má podriadiť človeku tretej strany. Okrem toho môžete pravdepodobne predpokladať, že človek v slučke môže mať úzkosť z toho, že pristúpi na čokoľvek, o čom sa človek tretej strany rozhodne, ak rozhodnutie nesúhlasí s postojom človeka v slučke.

Umelá inteligencia tretej strany je zapojená do slučky a jej indikácia má prednosť pred stranami

V prípade profesionálnej nezhody môže byť pravidlom, že sa zavolá tretia strana, ktorá je iným systémom AI, a zacyklí sa do prostredia, aby rozhodla o vyriešení nezhody. Pôvodná AI je naprogramovaná tak, aby sa podriadila čomukoľvek, čo rozhodne AI tretej strany. Človek, ktorý sa už nachádza v slučke, bol vopred inštruovaný, že ak nastane takáto situácia, aj on sa má podriadiť AI tretej strany. Okrem toho môžete pravdepodobne predpokladať, že človek v slučke môže mať obavy z toho, že pristúpi na čokoľvek, o čom sa AI tretej strany rozhodne, ak toto rozhodnutie nesúhlasí s pozíciou človeka v slučke.

Človek tretej strany nahrádza existujúceho človeka, veci pokračujú nanovo

Po odbornej nezhode je človek v slučke nahradený treťou stranou, ktorou je človek a ktorá sa odteraz stáva človekom v slučke. Človek, ktorý bol pôvodným účastníkom úlohy, sa už nepovažuje za súčasť danej úlohy. Je to otvorený aspekt toho, čo sa inak deje s teraz nahradenými ľuďmi v slučke, ale my hovoríme, že už určite nemajú žiadnu pokračujúcu úlohu v pracovnej úlohe.

Umelá inteligencia tretích strán nahrádza existujúcu AI, veci pokračujú odznova

Na základe odborného nesúhlasu je AI nahradená AI tretej strany, ktorá sa odteraz stáva AI používanou pre danú pracovnú úlohu. Umelá inteligencia, ktorá sa pôvodne používala na danú úlohu, sa už nepovažuje za súčasť danej úlohy. Je to otvorený aspekt toho, čo sa inak deje s teraz nahradenou AI, ale hovoríme, že AI už určite nemá žiadnu pokračujúcu úlohu v pracovnej úlohe.

Človek tretej strany nahrádza existujúcu AI, veci pokračujú nanovo (teraz z človeka na človeka)

Na základe odborného nesúhlasu je AI nahradená osobou tretej strany, pre ktorú sa táto osoba teraz stáva považovaná za stranu v spoločnom tíme, ktorá bude použitá na danú pracovnú úlohu. Umelá inteligencia, ktorá sa pôvodne používala na danú úlohu, sa už nepovažuje za súčasť danej úlohy. Je to otvorený aspekt toho, čo sa inak deje s teraz nahradenou AI, ale hovoríme, že AI už určite nemá žiadnu pokračujúcu úlohu v pracovnej úlohe. Stručne povedané, teraz sa to stáva úlohou dvoch strán, ktorú vykonávajú ľudia od človeka k človeku.

Umelá inteligencia tretej strany nahrádza existujúceho človeka, veci pokračujú odznova (teraz AI-na-AI)

Na základe odborného nesúhlasu je ľudská inteligencia nahradená umelou inteligenciou tretej strany a táto umelá inteligencia sa odteraz stáva výplňou predchádzajúceho človeka v slučke. Človek, ktorý bol pôvodným účastníkom úlohy, sa už nepovažuje za súčasť danej úlohy. Je to otvorený aspekt toho, čo sa inak deje s teraz nahradenými ľuďmi v slučke, ale my hovoríme, že už určite nemajú žiadnu pokračujúcu úlohu v pracovnej úlohe. Stručne povedané, toto sa teraz stáva dvojstrannou AI-to-AI na vykonanie úlohy.

ostatné

Je možné navrhnúť aj iné variácie, aby ste sa vyrovnali s profesionálnymi nezhodami, ale my sme tu popísali niektoré základné kamene.

Ako sa máme rozhodnúť, ktorý z týchto prístupov bude pre danú situáciu ten správny?

Pri takejto voľbe existuje široká škála problémov. Existujú technologické úvahy. Existujú obchodné úvahy. Existujú právne a etické úvahy.

To je do istej miery dôvod, prečo je etika AI a etická AI taká kľúčová téma. Prikázania etiky AI nás vedú k tomu, aby sme zostali ostražití. Technológovia umelej inteligencie môžu byť niekedy zaujatí technológiou, najmä optimalizáciou špičkových technológií. Nezohľadňujú nevyhnutne väčšie spoločenské dôsledky. Mať etické myslenie AI a robiť to integrálne s vývojom a zavádzaním AI je životne dôležité na vytváranie vhodnej AI vrátane (možno prekvapivo alebo ironicky) hodnotenia toho, ako firmy prijímajú etiku AI.

Okrem používania etických zásad AI vo všeobecnosti existuje zodpovedajúca otázka, či by sme mali mať zákony upravujúce rôzne spôsoby použitia AI. Na federálnej, štátnej a miestnej úrovni sa hromadia nové zákony, ktoré sa týkajú rozsahu a povahy toho, ako by mala byť navrhnutá AI. Snaha vypracovať a prijať takéto zákony je postupná. Etika AI slúži prinajmenšom ako zvažovaná prestávka a takmer určite bude do určitej miery priamo začlenená do týchto nových zákonov.

Uvedomte si, že niektorí neústupne tvrdia, že nepotrebujeme nové zákony, ktoré pokrývajú AI, a že naše existujúce zákony sú dostatočné. V skutočnosti varujú, že ak prijmeme niektoré z týchto zákonov AI, zabijeme zlatú hus tým, že potlačíme pokroky v AI, ktoré ponúkajú obrovské spoločenské výhody.

Stavil by som sa, že v tomto bode tejto závažnej diskusie túžite po niekoľkých názorných príkladoch, ktoré by mohli ukázať túto tému. Existuje špeciálny a určite populárny súbor príkladov, ktoré sú môjmu srdcu blízke. Vidíte, ako odborník na AI vrátane etických a právnych dôsledkov ma často žiadajú, aby som identifikoval realistické príklady, ktoré predstavujú dilemy etiky AI, aby bolo možné ľahšie pochopiť trochu teoretickú povahu tejto témy. Jednou z najviac evokujúcich oblastí, ktorá názorne prezentuje tento etický problém AI, je príchod skutočne samoriadiacich áut založených na AI. Bude to slúžiť ako praktický príklad použitia alebo príklad na rozsiahlu diskusiu na túto tému.

Tu je potom pozoruhodná otázka, ktorá stojí za zamyslenie: Osvetlí príchod skutočne samoriadiacich áut založených na AI niečo o riešení nezhôd medzi umelou inteligenciou a ľuďmi, a ak áno, čo to ukazuje?

Dovoľte mi chvíľu rozbaliť otázku.

Po prvé, všimnite si, že v skutočne samoriadiacom aute nie je žiadny ľudský vodič. Majte na pamäti, že skutočne samoriadiace autá sú poháňané systémom AI. Nie je potrebný ľudský vodič za volantom, ani neexistuje ustanovenie, aby vozidlo riadil človek. Pre moje rozsiahle a neustále pokrytie autonómnych vozidiel (AV) a najmä autonómnych áut viď odkaz tu.

Rád by som ďalej objasnil, čo sa myslí, keď hovorím o skutočne samoriadiacich autách.

Porozumenie úrovniam samoriadiacich automobilov

Pre vysvetlenie, skutočne samoriadiace autá sú tie, kde AI riadi auto úplne sama a pri riadení nie je žiadna asistencia človeka.

Tieto vozidlá bez vodiča sa považujú za úroveň 4 a úroveň 5 (pozri moje vysvetlenie na tento odkaz tu), zatiaľ čo auto, ktoré vyžaduje, aby sa ľudský vodič podieľal na riadení, sa zvyčajne považuje za úroveň 2 alebo úroveň 3. Autá, ktoré sa podieľajú na úlohe riadenia, sú opísané ako poloautonómne a zvyčajne obsahujú rôzne automatizované doplnky, ktoré sa označujú ako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 ešte nie je skutočné samoriadiace auto a ešte ani nevieme, či to bude možné dosiahnuť, ani ako dlho bude trvať, kým sa tam dostaneme.

Medzitým sa úsilie úrovne 4 postupne pokúša získať určitú trakciu podstupovaním veľmi úzkych a selektívnych testov na verejných cestách, hoci existuje polemika o tom, či by toto testovanie malo byť povolené ako také (v experimente sme všetci pokusnými králikmi na život a na smrť). ktoré sa odohrávajú na našich diaľniciach a vedľajších cestách, niektorí tvrdia, pozri moje spravodajstvo na tento odkaz tu).

Keďže poloautonómne automobily si vyžadujú vodiča, prijatie týchto typov automobilov sa nebude výrazne líšiť od riadenia konvenčných vozidiel, takže o tejto téme nie je samo o sebe veľa nových (ako vidíte, uvidíte) za okamih sa spravidla použijú nasledujúce body).

V prípade autonómnych automobilov je dôležité, aby verejnosť musela byť upozornená na rušivý aspekt, ktorý sa objavuje v poslednej dobe, a to napriek tomu, že napriek tým vodičom, ktorí neustále vysielajú svoje videá, ktoré zaspávajú za volantom automobilu úrovne 2 alebo 3 , musíme sa vyhnúť tomu, aby sme boli uvedení do omylu v presvedčenie, že vodič môže odvádzať svoju pozornosť od úlohy pri riadení čiastočne autonómneho vozidla.

Ste zodpovednou stranou za jazdné vlastnosti vozidla bez ohľadu na to, do akej miery by sa automatizácia mohla hodiť na úroveň 2 alebo úroveň 3.

Samoriadiace autá a AI-verzus-ľudský nesúhlas

Pri vozidlách s vlastným riadením na úrovni 4 a 5 sa do úlohy vedenia vozidla nebude podieľať ľudský vodič.

Všetci cestujúci budú cestujúcimi.

AI robí jazdu.

Jedným z aspektov, o ktorých je potrebné okamžite diskutovať, je skutočnosť, že AI zapojená do dnešných systémov riadenia AI nie je vnímavá. Inými slovami, AI je celkom kolektív počítačového programovania a algoritmov a je nepochybne neschopný uvažovať rovnakým spôsobom ako ľudia.

Prečo je tento zvýšený dôraz na to, aby AI nebola vnímavá?

Pretože by som chcel zdôrazniť, že keď diskutujem o úlohe jazdného systému AI, nepripisujem AI ľudské vlastnosti. Uvedomte si, že v dnešnej dobe pretrváva nebezpečná tendencia k antropomorfizácii AI. Ľudia v podstate priraďujú dnešnému UI sentiment podobný človeku, a to aj napriek nepopierateľnému a nespochybniteľnému faktu, že zatiaľ taký AI neexistuje.

S týmto objasnením si môžete predstaviť, že systém riadenia umelej inteligencie nebude natívne nejako „vedieť“ o aspektoch riadenia. Vedenie vozidla a všetko, čo k tomu patrí, bude potrebné programovať ako súčasť hardvéru a softvéru samostatne riadeného automobilu.

Poďme sa ponoriť do nespočetného množstva aspektov, ktoré sa budú hrať na túto tému.

Po prvé, je dôležité si uvedomiť, že nie všetky autá s umelou inteligenciou sú rovnaké. Každá automobilka a technologická firma s vlastným pohonom pristupuje k navrhovaniu samoriadiacich áut. Preto je ťažké urobiť rozsiahle vyhlásenia o tom, čo AI riadiace systémy urobia alebo neurobia.

Okrem toho, kedykoľvek sa uvádza, že riadiaci systém AI nerobí konkrétne veci, neskôr to môžu predbehnúť vývojári, ktorí počítač v skutočnosti naprogramujú tak, aby to urobil. Krok za krokom sa systémy riadenia AI postupne vylepšujú a rozširujú. Existujúce obmedzenie dnes už nemusí existovať v budúcej iterácii alebo verzii systému.

Dúfam, že to poskytuje dostatočnú litániu upozornení na podloženie toho, čo sa chystám povedať.

V prípade plne autonómnych vozidiel nemusí existovať žiadna šanca na profesionálnu nezhodu medzi človekom a AI kvôli možnosti, že na začiatku nie je žiadny človek v slučke. Snahou mnohých súčasných výrobcov áut s vlastným riadením je úplne zbaviť ľudského vodiča úlohy riadenia. Vozidlo nebude obsahovať ani pre človeka dostupné ovládacie prvky riadenia. V takom prípade sa ľudský vodič, ak je prítomný, nebude môcť zúčastniť na riadení, pretože nemá prístup k žiadnym ovládacím prvkom riadenia.

Pri niektorých plne autonómnych vozidlách niektoré konštrukcie stále umožňujú, aby človek mohol byť v pohybe, hoci človek vôbec nemusí byť k dispozícii alebo sa nemusí podieľať na procese riadenia. Človek sa teda môže zúčastniť na riadení, ak si to želá. Umelá inteligencia sa však v žiadnom prípade nespolieha na človeka pri vykonávaní akýchkoľvek úloh riadenia.

V prípade poloautonómnych vozidiel existuje úzky vzťah medzi ľudským vodičom a AI. Ľudský vodič môže úplne prevziať ovládanie jazdy a v podstate zastaviť AI v účasti na riadení. Ak si ľudský vodič želá vrátiť umelú inteligenciu do úlohy šoféra, môže tak urobiť, hoci to potom niekedy prinúti človeka vzdať sa riadenia.

Iná forma poloautonómnej prevádzky by vyžadovala, aby ľudský vodič a AI spolupracovali tímovým spôsobom. AI riadi a človek riadi. Jazdia spolu. AI sa môže podriadiť človeku. Človek sa môže podriadiť AI.

V určitom okamihu môže systém riadenia AI a ľudský vodič v slučke dospieť k bodu „odbornej nezhody“, pokiaľ ide o úlohu riadenia.

Na ilustráciu toho, ako môže byť náročné implementovať niektoré z vyššie uvedených pravidiel riešenia profesionálnych nezhôd, zvážte prípad privolania osoby tretej strany, aby vstúpila do záležitosti a ponúkla rozhodnutie na vyriešenie nevyriešeného problému.

Predpokladajme, že automobilka alebo technologická firma s vlastným riadením zariadila, aby vzdialení ľudskí operátori mali prístup k ovládacím prvkom vozidiel v rámci ich vozového parku. Ľudský operátor sedí v nejakej vzdialenej kancelárii alebo v podobnom prostredí. Prostredníctvom počítačového systému môžu sledovať jazdnú scénu prostredníctvom prístupu ku kamerám a iným senzorovým zariadeniam naloženým na samoriadiace vozidlo. Pre nich je to takmer ako hranie online videohry, aj keď, samozrejme, okolnosti v skutočnom živote majú potenciálne strašné následky.

Systém AI a ľudský vodič v aute jazdia na poloautonómnom vozidle po dlhej diaľnici. Zrazu chce AI zamieriť do priekopy. Ľudský vodič to nechce urobiť. Tí dvaja sa šúchajú po ovládačoch jazdy.

Ako sa to vyrieši?

Možno sme mohli vopred zaviesť, že človek vždy zvíťazí. Predpokladajme však, že sme sa rozhodli to neurobiť.

Mohli sme vopred zaviesť, že AI vždy vyhrá. Predpokladajme, že sme sa rozhodli to neurobiť. Celkovo sme neprijali žiadne z týchto pravidiel, okrem toho, že sme sa rozhodli umožniť tretej strane zasiahnuť a vyriešiť profesionálny nezhodu akéhokoľvek vecného charakteru.

V tomto prípade bojujú AI a ľudský vodič za volantom o ovládacie prvky. Toto je povedzme odovzdané vzdialenému ľudskému operátorovi (nášmu človeku tretej strany). Vzdialený ľudský operátor skúma, čo sa deje, a rozhodne sa odísť z priekopy, čím zdanlivo zabráni tomu, o čo sa AI pokúšala. Predpokladajme zároveň, že vzdialený ľudský operátor nasmeruje do protiidúcej premávky, čo možno ani AI, ani ľudský vodič v aute nechceli urobiť.

Ide o to, že spôsob, akým bolo toto pravidlo implementované, spočíva v tom, že ľudský operátor tretej strany je schopný úplne potlačiť AI aj človeka v slučke. Či to prinesie dobrý výsledok, určite nie je isté.

Tento príklad použijem na zvýraznenie niektorých ďalších pohľadov na tieto záležitosti.

Nemôžete vysloviť drzý predpoklad, že len preto, že sa zavedie jedno z týchto pravidiel, výsledok vyriešeného sporu je nevyhnutne zaručený dobrý výsledok. Možno nie. Neexistuje žiadne pevné pravidlo vždy správneho druhu, ktoré by sa dalo zvoliť.

Ďalej, niektoré z týchto pravidiel nemusia byť realizovateľné.

Uvažujme o príklade zásahu vzdialeného ľudského operátora, keď sa AI a ľudský vodič hádajú o ovládacie prvky. Vzdialenému ľudskému operátorovi môže trvať mnoho sekúnd, kým príde na to, čo sa deje. Dovtedy už mohlo vozidlo skončiť v priekope alebo malo iný nepriaznivý výsledok. Predpokladajme tiež, že poloha vozidla bráni vzdialenému prístupu, napríklad na mieste, kde nie je žiadne elektronické pripojenie k sieti. Alebo možno v danom momente nefungujú sieťové funkcie vozidla.

Ako vidíte, pravidlo môže na papieri vyzerať elegantne, hoci uvedenie pravidla do skutočného používania môže byť veľmi zložitý alebo veľmi náhodný prístup. Pozrite si moje pokrytie kritických očí na vzdialenom operátorovi autonómnych vozidiel a áut s vlastným riadením na odkaz tu.

Rád by som stručne pokryl ďalšiu súvisiacu tému, ktorej sa budem podrobnejšie venovať v nadchádzajúcej analýze.

Jednou z rastúcich obáv o autonómne vozidlá a samoriadiace autá, ktoré sú poloautonómne, je tzv. Syndróm horúcich zemiakov.

Tu je dohoda.

Riadiaci systém AI a človek spolu jazdia. Vzniká strašná situácia. Umelá inteligencia bola naprogramovaná tak, aby vypadla z úlohy riadenia a obrátila veci na človeka, keď nastane strašný moment. Zdá sa to možno „rozumné“, pretože sa zdá, že sa odvolávame na pravidlo o ľudskej bytosti ako predvolenom „víťazovi“ v akejkoľvek potenciálnej profesionálnej nezhode.

Ale vypadnutie AI môže byť na nečestnejšie alebo považované za zákerné účely. Môže sa stať, že automobilka alebo technologická firma s vlastným pohonom nechce, aby sa ich AI považovala za „vinníka“, keď dôjde k autonehode. Aby sa AI zdanlivo vyhla takejto situácii, náhle odovzdá ovládacie prvky človeku. Voila, človek je teraz pravdepodobne úplne zodpovedný za vozidlo.

Hlavná vec je, že predpokladajme, že AI vykoná toto odovzdanie, povedzme, že zostáva jedna sekunda, kým dôjde k zlyhaniu.

Mal by človek skutočne nejaký čas na odvrátenie havárie?

Pravdepodobne nie.

Predpokladajme, že AI vykoná odovzdanie s niekoľkými milisekúndami alebo nanosekundami do konca. Dovolím si tvrdiť, že človek má v podstate nulovú šancu urobiť čokoľvek, aby havárii odvrátil.

Z pohľadu automobilky alebo automobilky s vlastným pohonom sa môžu pri takejto autonehode správať, akoby mali čisté ruky. Auto riadil človek. Auto neriadila AI. Zdá sa, že jediným „logickým“ záverom je, že na vine musí byť človek a AI musí byť úplne bez viny.

Je to bordel.

Budem o tom podrobnejšie diskutovať v nasledujúcom stĺpci.

záver

Vyskytnú sa odborné nezhody.

Je ťažké si predstaviť komplexnú úlohu, na ktorej by sa podieľali dve strany a pri ktorej by nikdy nevznikli žiadne odborné nezhody. Vyzerá to ako krajina fantázie alebo prinajmenšom veľká rarita.

Dnes máme veľa a veľa prípadov profesionálnych nezhôd medzi ľuďmi, pre ktoré sa každodenne mierovou cestou a rozumne riešia tak či onak. V skutočnosti často vytvárame situácie zámerne, aby sme podporili a odhalili profesionálne nezhody. Môžete namietať, že to svedčí o známej múdrosti, že niekedy sú dve hlavy lepšie ako jedna.

Keďže AI bude čoraz rozšírenejšia, budeme mať veľa dvojstranných vykonávateľov úloh AI pre človeka alebo človeka s AI a bude odborné nezhody k tomu dôjde. Lenivý prístup je vždy sa podriaďovať človeku. Toto nemusí byť najvhodnejší prístup. AI môže byť lepšia voľba. Alebo jedno z vyššie uvedených pravidiel môže byť rozumnejším prístupom.

Často sa opakuje múdra veta, že všetci by sme mali byť vo všeobecnosti schopní súhlasiť s tým, že nesúhlasíme, aj keď keď príde na vec, niekedy musí byť nezhoda jednoznačne vyriešená, inak daná záležitosť povedie k nevýslovnej pohrome. Nemôžeme nechať nezhody len tak doznievať na viniči. Čas môže byť dôležitý a životy môžu byť ohrozené.

Existuje jasná požiadavka na určité obozretné prostriedky na riešenie nezhôd, aj keď to nie je nevyhnutne prijateľné, a to aj vtedy, keď si AI a človek v slučke nevidia z očí do očí, ani z bajtu na bajt.

Verím, že s týmto celkom príjemným tvrdením nebudete nesúhlasiť.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- pilot-a-kopilot-nesúhlasili-pred vzlietnutím-a-náhle-zvolili-taxi-späť-na-terminál-a-išli-ich-oddelenými-cestami/