Etika AI sa obáva zhoršovania asymetrie AI medzi ľuďmi

Niekedy ste na nesprávnom konci palice.

Tento hovorový výraz možno aplikovať na pojem asymetria.

Áno, budem hovoriť o asymetrii. Ako ste sa už pravdepodobne stretli v tomto upratanom svete, v ktorom žijeme, sú príležitosti, keď zistíte, že máte menej vedomostí o záležitosti, ktorá je pre vás relatívne dôležitá. Toto sa formálne označuje ako Informačná asymetria.

Kľúčom je, že máte menej vedomostí alebo informácií, ako by ste si možno želali, a navyše máte rozhodne menej ako druhá strana zainteresovaná v tejto záležitosti. V porovnaní s druhou stranou ste v značnej nevýhode. Vedia niečo, čo ty nevieš. Môžu využiť to, čo vedia, najmä pokiaľ ide o to, čo vy neviete, a získať prevahu v akýchkoľvek drsných úvahách alebo rokovaniach s vami.

No, v meste je nové dieťa, známe ako Asymetria AI.

Táto najnovšia fráza odkazuje na možnosť, že pôjdete proti niekomu, kto je vyzbrojený AI, zatiaľ čo vy tak ozbrojení nie ste.

Majú na svojej strane AI, zatiaľ čo vy máte, no, len vás. Veci sú nahnuté. Ste v predpokladanej nevýhode. Druhá strana bude môcť okolo vás behať v kruhoch, pretože bude rozšírená o AI. To by mohlo byť v slávnom prísloví, že v láske a vojne je všetko spravodlivé (staré príslovie, ktoré sa v ňom objavilo Euphues od Johna Lylyho, 1578), hoci dynamika a nebezpečenstvá asymetrie umelej inteligencie vyvolávajú náročné etické problémy umelej inteligencie. Moje pokračujúce a rozsiahle pokrytie etiky AI a etickej AI nájdete v časti odkaz tu a odkaz tu, Len aby sme vymenovali niekoľko.

Predtým, ako prejdeme do oblasti AI a jej bohatej zložitosti, pokiaľ ide o asymetriu AI, najprv preskúmame každodennú bežnú verziu obyčajnej starej informačnej asymetrie. Toto pripraví pôdu pre prechod do povestného AI nového chlapca v bloku.

Krátky a účelovo poučný príbeh vám môže nahnať chuť do jedla.

Jedného dňa som mal na ceste defekt pneumatiky a rýchlo som hľadal vhodnú náhradu, ktorá by sa dala ihneď namontovať. Pomocou svojho smartfónu som sa pozrel online do neďalekých obchodov s pneumatikami, aby som zistil, akú vzdialenosť musím prejsť na pneumatike run-flat a či sú otvorené nejaké obchody. Okrem toho som rýchlo zhodnotil ich online zákaznícke recenzie a pokúsil som sa získať čokoľvek užitočné o tom, ako dlho boli v podnikaní, a ďalších faktoroch, ktoré by mohli ukázať ich hodnotu.

Keď som zavolal do jedného z obchodov s pneumatikami, úradník mi poskytol rýchlu cenovú ponuku na cenu pneumatiky a jej montáž. Pneumatika nebola presne taká, akú som mal na mysli, ale predavač ma ubezpečil, že to bude jediný obchod v okolí, ktorý to dokáže hneď urobiť. Podľa referenta by žiaden z okolitých pneuservisov nemal žiadne takéto pneumatiky na sklade a týmto konkurentom by trvalo minimálne deň, kým by získali vhodnú pneumatiku z nejakého polodiaľkového skladu.

Bol som uprostred informačnej asymetrie.

Úradník tvrdil, že vie viac o miestnom stave predajní pneumatík a najmä o type pneumatík, ktoré potrebujem. Bol som v oblasti, cez ktorú som iba prechádzal, a nemal som žiadne informácie o predajniach pneumatík v tejto konkrétnej zemepisnej oblasti. Pokiaľ som vedel, úradník bol na mieste a dával mi neprikrášlenú pravdu.

Robila to však úradníčka?

Možno áno možno nie.

Je možné, že úradník úprimne veril všetkému, čo mi bolo oznámené. Pre úradníka to bola pravda. Alebo možno úradník trochu naťahoval pravdu. Je možné, že to, čo bolo povedané, môže byť pravda, hoci spôsob, akým to bolo zobrazené, naznačoval, že to bola úplná a nevyvrátiteľná pravda. Samozrejme, mohol to byť aj úplný balderdash a predavač iba šilingoval, aby mi obchod s pneumatikami zarobil. Mohla byť na rade šťavnatá komisia?

Dovolím si tvrdiť, že nikto nemá rád, keď je v takejto pozícii smoliar.

V stávke situácie je dôležitý faktor v tom, ako veľmi záleží na informačnej asymetrii. Ak je aktuálna otázka typu života alebo smrti, byť v psej búde a spoliehať sa na druhú stranu, pokiaľ ide o to, čo vedia alebo vyhlasujú, že vedia, je povrchný a vysoko nežiaduci postoj. Keď sú v stávke nízke , ako si napríklad objednáte večeru v reštaurácii a server vám povie, že jedlo z rýb je rajské, ale vy ste tam ešte nikdy nejedli a ste nedostatočne informovaní, môžete túto štipku informačnej asymetrie prijať bez veľkého hnevu (ja Predpokladajme tiež, že stavíte aj na to, že server nebude riskovať, že bude dávať kyslé rady a príde o slušné sprepitné).

Keď sa vrátim k príbehu o opotrebovaných pneumatikách (slovná hračka!), nemal by som žiadny okamžitý spôsob, ako zistiť, či mi úradník poskytuje spoľahlivé a informatívne informácie. Možno sa pýtate, čo sa stalo. Rozhodol som sa zavolať do niekoľkých neďalekých obchodov s pneumatikami.

Si pripravený na to, čo som objavil?

Všetky ostatné obchody s pneumatikami mali moju požadovanú pneumatiku na sklade a nemienili ma presviedčať, aby som si vzal inú pneumatiku (ako sa o to pokúšal prvý predavač). Mohli by tiež vykonať prácu v rovnakom časovom rámci ako prvý obchod s pneumatikami, ktorý som pravdepodobne zavolal. Zhruba za rovnakú cenu.

Z mojej strany nastal vítaný výdych úľavy, uisťujem vás.

Je iróniou, že v Murphyho zákone nešťastia prvé miesto, ktoré som kontaktoval, bolo jediné, ktoré sa zdalo byť na obed. Som rád, že som sa snažil získať viac informácií. Tým sa zmenšila medzera informačnej asymetrie. Tlieskal som si za to, že som sa držal svojich zbraní a nepristúpil som na prvé miesto, ktoré som nazval.

Ako už bolo povedané, získanie ďalších informácií si vyžiadalo určité náklady. Uskutočnil som približne štyri hovory, z ktorých každý trval asi pätnásť až dvadsať minút, kým som sa plne chopil. V tomto zmysle som spotreboval asi hodinu a pol, kým som len zisťoval, kam si vezmem auto. Ak by som svoje auto okamžite dostal na prvé miesto, nová pneumatika by už v tom čase bola takmer na mojom aute. Na druhej strane by som takmer určite neskôr oľutoval rýchle rozhodnutie, ktoré som urobil, keď som bol v zákernej informačnej asymetrii.

Niekedy musíte zaťať zuby a brať tú obávanú informačnú asymetriu tak, ako prichádza. Len dúfaš, že akékoľvek rozhodnutie, ktoré urobíš, bude dosť dobré. Nemusí to byť „dokonalé“ rozhodnutie a rozhodnutie by ste mohli neskôr ľutovať. Druhým uhlom je, že by ste sa mohli pokúsiť posilniť svoju stranu informačnej rovnice, hoci to nie je nevyhnutne bezplatné a môže to tiež prežúvať drahocenný čas v závislosti od toho, či je drahocenný čas podstatný.

Teraz, keď vás nepochybne potešilo, že moje auto jazdí dobre s úplne novou a správnou pneumatikou, môžem prejsť k objaveniu sa asymetrie AI.

Zamyslite sa nad príbehom AI o utrpení.

Hľadáte pôžičku na bývanie. Existuje online analyzátor žiadostí o hypotéku, ktorý používa konkrétna banka. Online systém využíva dnešné pokročilé možnosti AI. Nie je potrebné hovoriť s ľudským agentom poskytujúcim pôžičku. AI robí všetko.

Systém AI vás prevedie sériou výziev. Poslušne vypĺňate formuláre a reagujete na systém AI. Táto AI je veľmi ukecaná. Zatiaľ čo ste v minulosti mohli používať konvenčný počítačový formulárový systém, tento variant AI je skôr podobný interakcii s ľudským agentom. Nie celkom, ale dosť na to, aby ste skoro začali veriť, že na druhej strane tejto činnosti bol človek.

Potom, čo urobíte všetko pre to, aby ste „prediskutovali“ vašu žiadosť s touto AI, nakoniec vás informuje, že žiadosť o pôžičku bohužiaľ nie je schválená. Akosi dostane vašu kozu, že sa zdá, že AI ponúka ospravedlnenie, ako keby AI chcela schváliť úver, ale tí podlí ľudia, ktorí dohliadajú na banku, to AI nedovolia. Pre moje pokrytie toho, aké zavádzajúce sú tieto druhy údajných ospravedlnení AI, pozri odkaz tu.

Nemáte potuchy, prečo vás odmietli. AI neponúka žiadne vysvetlenie. Možno sa AI pomýlila alebo pokazila svoje výpočty. Čo je ešte horšie, predpokladajme, že AI pri rozhodovaní o pôžičke použila niektoré veľmi pochybné úvahy, ako je vaša rasa alebo pohlavie. Všetko, čo viete, je, že ste zrejme premrhali čas a medzitým ste odovzdali množstvo súkromných údajov AI a banke. Ich AI vás porazila.

Toto by bolo označené ako príklad asymetrie AI.

Bol si to ty proti banke. Banka bola vyzbrojená AI. Neboli ste rovnako vyzbrojení. Mali ste rozum a svoju školu múdrosti, no v zadnom vrecku ste nemali žiadnu AI. Myseľ proti stroju. Smutné je, že v tomto prípade vyhral stroj.

čo máš robiť?

Po prvé, na spoločenskom základe si musíme uvedomiť, že táto asymetria AI rastie a stáva sa takmer všadeprítomnou. Ľudia sa stretávajú s AI vo všetkých systémoch, s ktorými denne komunikujeme. Niekedy je AI jediným prvkom, s ktorým komunikujeme, ako napríklad v tomto príklade žiadosti o pôžičku. V iných prípadoch môže byť človek v slučke, ktorá sa spolieha na to, že mu AI pomôže pri vykonávaní danej služby. V prípade pôžičky sa môže stať, že banka vás namiesto interakcie s umelou inteligenciou požiada o rozhovor s ľudským agentom, ale pri ktorom ľudský agent používa počítačový systém na prístup k umelej inteligencii, ktorá vedie ľudského agenta počas procesu žiadosti o úver. (a takmer vždy máte istotu, že ľudský agent sa bude správať tak, ako keby bol uväznený tým, že bude musieť prísne robiť všetko, čo im AI „prikáže“.

Tak či onak, AI je stále v mixe.

Po druhé, musíme sa pokúsiť zabezpečiť, aby sa asymetria AI vykonávala aspoň na etickom základe AI.

Dovoľte mi vysvetliť túto zdanlivo čudnú poznámku. Vidíte, ak si môžeme byť do istej miery istí, že AI koná eticky správnym spôsobom, mohli by sme mať nejakú útechu v súvislosti s asymetriou, ktorá je v hre. Na trochu analogickom, ale aj voľnom základe by ste mohli povedať, že ak by moja interakcia s prvým predavačom pneumatík mala zavedené a presadzované nejaké prísne etické pravidlá, možno by mi nepovedali príbeh, ktorý mi povedali, alebo aspoň ja možno som sa nemusel hneď snažiť zistiť, či mi bol daný príbeh.

O chvíľu vysvetlím viac o etike AI.

Po tretie, mali by sme hľadať spôsoby, ako znížiť asymetriu AI. Ak ste mali AI, ktorá bola na vašej strane a snažila sa byť vaším trénerom alebo ochrancom, možno by ste mohli použiť túto umelú inteligenciu na to, aby ste zaútočili na druhú AI, s ktorou idete proti sebe. Ako sa hovorí, niekedy má veľký zmysel bojovať s ohňom ohňom.

Predtým, ako sa dostaneme k mäsu a zemiakom o divokých a vlnených úvahách, ktoré sú základom asymetrie umelej inteligencie, stanovme si niekoľko ďalších základov na úplne zásadné témy. Musíme sa krátko ponoriť do etiky AI a najmä do nástupu strojového učenia (ML) a hlbokého učenia (DL).

Možno ste si matne uvedomovali, že jeden z najhlasnejších hlasov v súčasnosti v oblasti AI a dokonca aj mimo oblasti AI pozostáva z volania po väčšej podobe Etickej AI. Poďme sa pozrieť na to, čo znamená odvolávať sa na etiku umelej inteligencie a etickú umelú inteligenciu. Okrem toho preskúmame, čo mám na mysli, keď hovorím o strojovom učení a hĺbkovom učení.

Jeden konkrétny segment alebo časť etiky umelej inteligencie, ktorá si získala veľkú pozornosť médií, pozostáva z umelej inteligencie, ktorá sa prejavuje nežiaducimi zaujatosťami a nerovnosťami. Možno ste si vedomí toho, že keď sa rozbehla najnovšia éra AI, došlo k obrovskému výbuchu nadšenia pre to, čo niektorí dnes nazývajú AI pre dobro. Bohužiaľ, v pätách tohto tryskajúceho vzrušenia sme začali byť svedkami AI pre zlé. Napríklad sa ukázalo, že rôzne systémy na rozpoznávanie tváre založené na AI obsahujú rasové a rodové predsudky, o ktorých som diskutoval na odkaz tu.

Snahy brániť sa AI pre zlé aktívne prebiehajú. Okrem hlučného právne v snahe o zvládnutie previnenia existuje aj výrazný tlak na prijatie etiky AI, aby sa napravila odpornosť AI. Myšlienka je taká, že by sme mali prijať a podporiť kľúčové etické princípy AI pre vývoj a zavádzanie AI, aby sme podkopali AI pre zlé a súčasne ohlasovať a podporovať preferované AI pre dobro.

V súvislosti s tým som zástancom pokusu použiť AI ako súčasť riešenia problémov s AI a bojovať s ohňom ohňom týmto spôsobom myslenia. Mohli by sme napríklad vložiť etické komponenty AI do systému AI, ktorý bude monitorovať, ako zvyšok AI robí veci, a tak potenciálne zachytiť v reálnom čase akékoľvek diskriminačné snahy, pozri moju diskusiu na odkaz tu. Mohli by sme mať aj samostatný systém AI, ktorý funguje ako typ monitora etiky AI. Systém AI slúži ako dozorca na sledovanie a zisťovanie, kedy sa iná AI dostane do neetickej priepasti (pozri moju analýzu takýchto schopností na odkaz tu).

O chvíľu sa s vami podelím o niekoľko základných princípov, ktoré sú základom etiky AI. Takýchto zoznamov sa tu a tam pohybuje veľa. Dalo by sa povedať, že zatiaľ neexistuje jednotný zoznam univerzálnej príťažlivosti a súbežnosti. To je tá nešťastná správa. Dobrou správou je, že aspoň existujú ľahko dostupné zoznamy etiky AI a bývajú dosť podobné. Celkovo to naznačuje, že formou rozumnej konvergencie svojho druhu nachádzame cestu k všeobecnej zhode toho, z čoho pozostáva etika umelej inteligencie.

Najprv si stručne popíšme niektoré z celkových etických zásad AI, aby sme ilustrovali, čo by malo byť životne dôležitým faktorom pre každého, kto vytvára, využíva alebo používa AI.

Napríklad, ako uvádza Vatikán v Rím vyzýva na etiku AI a ako som sa podrobne venoval odkaz tuToto je ich identifikovaných šesť základných etických princípov AI:

  • transparentnosť: V zásade musia byť systémy AI vysvetliteľné
  • začlenenie: Potreby všetkých ľudských bytostí musia byť brané do úvahy, aby z toho mohol mať úžitok každý, a aby všetkým jednotlivcom mohli byť ponúknuté najlepšie možné podmienky na sebavyjadrenie a rozvoj.
  • odpovedá: Tí, ktorí navrhujú a nasadzujú používanie AI, musia postupovať zodpovedne a transparentne
  • nestrannosť: Nevytvárajte ani nekonajte podľa zaujatosti, čím si zabezpečíte spravodlivosť a ľudskú dôstojnosť
  • Spoľahlivosť: Systémy AI musia byť schopné spoľahlivo fungovať
  • Bezpečnosť a súkromie: Systémy AI musia fungovať bezpečne a rešpektovať súkromie používateľov.

Ako uviedlo americké ministerstvo obrany (DoD) vo svojom Etické princípy používania umelej inteligencie a ako som sa podrobne venoval odkaz tuToto je ich šesť základných etických princípov AI:

  • Zodpovedný: Personál ministerstva obrany bude uplatňovať primeranú úroveň úsudku a starostlivosti, pričom zostane zodpovedný za vývoj, nasadenie a používanie schopností AI.
  • Spravodlivé: Ministerstvo podnikne premyslené kroky, aby minimalizovalo neúmyselné skreslenie schopností AI.
  • Vysledovateľné: Schopnosti umelej inteligencie ministerstva sa vyvinú a rozmiestnia tak, aby príslušní pracovníci primerane rozumeli technológiám, vývojovým procesom a prevádzkovým metódam použiteľným na schopnosti umelej inteligencie, vrátane transparentných a kontrolovateľných metodík, zdrojov údajov a návrhových postupov a dokumentácie.
  • spoľahlivosť: Schopnosti umelej inteligencie ministerstva budú mať explicitné, dobre definované využitie a bezpečnosť, zabezpečenie a efektívnosť takýchto schopností bude predmetom testovania a zabezpečenia v rámci týchto definovaných použití počas celého životného cyklu.
  • Riaditeľné: Ministerstvo navrhne a skonštruuje schopnosti AI tak, aby plnili zamýšľané funkcie, pričom majú schopnosť odhaliť a vyhnúť sa neúmyselným následkom a schopnosť odpojiť alebo deaktivovať nasadené systémy, ktoré prejavujú neúmyselné správanie.

Diskutoval som aj o rôznych kolektívnych analýzach etických princípov AI, vrátane toho, že som sa zaoberal súborom navrhnutým výskumníkmi, ktorí preskúmali a zhrnuli podstatu mnohých národných a medzinárodných etických zásad AI v článku s názvom „Globálna krajina etických zásad AI“ (zverejnená v príroda), a ktoré moje pokrytie skúma na odkaz tu, čo viedlo k tomuto kľúčovému zoznamu:

  • Priehľadnosť
  • Spravodlivosť a spravodlivosť
  • Neškodnosť
  • zodpovednosť
  • súkromia
  • dobročinnosť
  • Sloboda a autonómia
  • Verte
  • Udržateľnosť
  • dôstojnosť
  • Solidarita

Ako môžete priamo uhádnuť, pokúsiť sa určiť špecifiká, ktoré sú základom týchto princípov, môže byť mimoriadne ťažké. O to viac, snaha premeniť tieto široké princípy na niečo úplne hmatateľné a dostatočne podrobné na to, aby sa dali použiť pri vytváraní systémov AI, je tiež tvrdým orieškom. Celkovo je ľahké mávnuť rukou nad tým, čo sú to etické predpisy AI a ako by sa mali vo všeobecnosti dodržiavať, zatiaľ čo v kódovaní AI je oveľa komplikovanejšia situácia, keď musí ísť o skutočnú gumu, ktorá sa stretáva s vozovkou.

Princípy AI etiky majú využívať vývojári AI spolu s tými, ktorí riadia snahy o vývoj AI, a dokonca aj tí, ktorí v konečnom dôsledku nasadzujú a vykonávajú údržbu systémov AI. Všetky zainteresované strany počas celého životného cyklu vývoja a používania AI sa berú do úvahy v rámci dodržiavania zavedených noriem Etickej AI. Toto je dôležitý prvok, pretože zvyčajným predpokladom je, že „iba kóderi“ alebo tí, ktorí programujú AI, podliehajú etike AI. Ako už bolo spomenuté, na vymyslenie a nasadenie AI je potrebná dedina, v ktorej sa celá dedina musí vyznať a dodržiavať etické predpisy AI.

Uistime sa tiež, že sme na rovnakej stránke o povahe dnešnej AI.

Dnes neexistuje žiadna umelá inteligencia, ktorá by bola vnímavá. Toto my nemáme. Nevieme, či bude vnímajúca AI možná. Nikto nemôže vhodne predpovedať, či dosiahneme vnímajúcu AI, ani to, či sa vnímajúca AI nejakým zázrakom spontánne objaví vo forme výpočtovej kognitívnej supernovy (zvyčajne označovanej ako singularita, pozri moje pokrytie na odkaz tu).

Typ AI, na ktorý sa zameriavam, pozostáva z necitlivej AI, ktorú máme dnes. Ak by sme chceli divoko špekulovať o cítiaci AI, táto diskusia by sa mohla uberať radikálne iným smerom. Vnímajúca AI by mala mať ľudské kvality. Mali by ste zvážiť, že vnímajúca AI je kognitívnym ekvivalentom človeka. Navyše, keďže niektorí špekulujú, že by sme mohli mať superinteligentnú AI, je možné, že takáto AI by mohla byť inteligentnejšia ako ľudia (pre môj prieskum superinteligentnej AI ako možnosti pozri pokrytie tu).

Nechajme veci viac pri zemi a zvážme dnešnú výpočtovú necitlivú AI.

Uvedomte si, že dnešná AI nie je schopná „myslieť“ akýmkoľvek spôsobom na rovnakej úrovni ako ľudské myslenie. Keď komunikujete s Alexou alebo Siri, konverzačné schopnosti sa môžu zdať podobné ľudským schopnostiam, ale realita je taká, že sú výpočtové a chýba im ľudské poznanie. Najnovšia éra AI vo veľkej miere využíva strojové učenie (ML) a hlboké učenie (DL), ktoré využívajú porovnávanie výpočtových vzorov. To viedlo k systémom AI, ktoré vyzerajú ako ľudia. Medzitým dnes neexistuje žiadna umelá inteligencia, ktorá by mala zdanie zdravého rozumu, ani žiadny z kognitívnych zázrakov robustného ľudského myslenia.

ML/DL je forma porovnávania výpočtových vzorov. Zvyčajný prístup je taký, že zhromažďujete údaje o úlohe rozhodovania. Dáta vložíte do počítačových modelov ML/DL. Tieto modely sa snažia nájsť matematické vzorce. Po nájdení takýchto vzorov, ak sa nájdu, systém AI potom použije tieto vzory pri stretnutí s novými údajmi. Po predložení nových údajov sa na vyvodenie aktuálneho rozhodnutia použijú vzory založené na „starých“ alebo historických údajoch.

Myslím, že viete hádať, kam to smeruje. Ak ľudia, ktorí sa rozhodovali podľa vzoru, začlenili do seba nepriaznivé predsudky, je pravdepodobné, že údaje to odrážajú jemným, ale významným spôsobom. Zhoda výpočtových vzorov Machine Learning alebo Deep Learning sa jednoducho pokúsi zodpovedajúcim spôsobom matematicky napodobniť údaje. Neexistuje žiadne zdanie zdravého rozumu alebo iných vnímavých aspektov modelovania vytvoreného AI ako takého.

Okrem toho si vývojári AI nemusia uvedomiť, čo sa deje. Tajomná matematika v ML/DL môže sťažiť odhalenie teraz skrytých predsudkov. Oprávnene by ste dúfali a očakávali, že vývojári AI budú testovať potenciálne skryté predsudky, hoci je to zložitejšie, ako by sa mohlo zdať. Existuje solídna šanca, že aj pri relatívne rozsiahlom testovaní budú v modeloch zhody vzorov ML/DL stále zakomponované odchýlky.

Do istej miery by ste mohli použiť známe alebo neslávne známe príslovie o odpadkoch do odpadu. Ide o to, že je to skôr podobné zaujatostiam – in, ktoré sa zákerne naplnia, keď sa predsudky ponoria do AI. Algoritmus rozhodovania (ADM) AI je axiomaticky zaťažený nerovnosťami.

Nie dobré.

Vráťme sa k nášmu zameraniu na asymetriu AI.

Rýchla rekapitulácia mojich vyššie uvedených troch odporúčaní je toto:

1) Uvedomte si, že asymetria AI existuje a rastie

2) Snažte sa zabezpečiť, aby asymetria AI bola ohraničená etikou AI

3) Pokúste sa bojovať s asymetriou AI tým, že sa vyzbrojíte AI

Bližšie sa pozrieme na posledný bod boja proti ohňu ohňom.

Predstavte si, že keď sa snažíte získať pôžičku, mali ste AI, ktorá pracovala na vašej strane. Môže to byť aplikácia založená na AI na vašom smartfóne, ktorá bola navrhnutá na získanie pôžičiek. Nie je to aplikácia jednej z bánk a namiesto toho je nezávisle navrhnutá tak, aby konala vo vašom mene. Tieto druhy aplikácií som podrobne opísal vo svojej knihe o robotoch strážnych anjelov založených na AI, viď odkaz tu.

Keď požiadate o pôžičku, môžete sa obrátiť na túto aplikáciu, keď vás iná AI prevedie procesom žiadosti. Tieto dva systémy AI sú odlišné a úplne oddelené od seba. Umelá inteligencia vo vašom smartfóne bola „vycvičená“, aby poznala všetky triky, ktoré používa iná AI. Odpovede, ktoré zadáte do AI banky, budú teda založené na tom, čo vám vaša AI radí.

Ďalší variant pozostáva z toho, že vaša AI odpovedá na otázky, ktoré kladie druhá AI. Pokiaľ to môže iná AI zistiť, ste to vy, kto zadáva odpovede. Namiesto toho môžete iba sledovať, ako prebieha interakcia medzi dvoma bojujúcimi systémami AI. To vám umožní vidieť, čo vaša AI ponúka. Okrem toho môžete potenciálne upraviť svoju AI v závislosti od toho, či ste spokojní s tým, čo vaša AI robí vo vašom mene.

Predpovedal som, že sa všetci postupne vyzbrojíme AI, ktorá bude v týchto situáciách asymetrie AI na našej strane.

Uvažujme, ako to dopadne.

Toto sú základné vplyvy na podmienku asymetrie AI, ktoré som stanovil:

  • Vyrovnanie asymetrie AI vo váš prospech (povedie vás nahor v nádeji, že dosiahnete rovnakú úroveň)
  • Podporte asymetriu AI vo svoj prospech (zvyšuje vás vo výhodu, keď ste si už rovní)
  • Zvýšenie asymetrie AI vo vašu mimoriadnu priazeň (získanie širšej výhody, keď už vo výhode)
  • Neúmyselné podrezanie asymetrie AI vo váš neprospech (keď ste mali už existujúcu výhodu a AI vás neúmyselne stiahla dole)

Je čas sa hlboko ponoriť do týchto zaujímavých možností.

Sploštenie asymetrie AI vo váš prospech

Sploštenie asymetrie AI je najzrejmejšia a najčastejšie diskutovaná úvaha, konkrétne, že by ste sa vyzbrojili AI, aby ste sa pokúsili ísť od špičky k päte s AI, ktorú v danej veci používa druhá strana. Nastavenie AI Asymetry začalo s vami v rozhodne nevýhode. V rohu ste nemali žiadnu AI. Bol si na nízkej úrovni. Druhá strana mala AI a boli na vyššej úrovni.

Preto ste sa múdro vyzbrojili umelou inteligenciou, ktorej cieľom bolo postaviť vás a inú AI za rovnakých podmienok.

Jedna dôležitá a možno prekvapivá nuansa, ktorú treba mať na pamäti, je, že nie vždy bude platiť, že používané systémy AI budú proti sebe rovnomerne vyvažovať. Môžete sa vyzbrojiť AI, ktorá je povedzme menej výkonná ako AI, ktorú používa druhá strana. V takom prípade ste našťastie zvýšili svoju negatívnu pozíciu, hoci teraz nie ste úplne rovnakí s druhou stranou a jej AI.

To je dôvod, prečo to hovorím ako sploštenie asymetrie AI. Môžete byť schopní zúžiť medzeru, aj keď nie úplne uzavrieť medzeru. Konečným cieľom by bolo použiť AI na vašej strane, ktorá vás privedie do úplne rovnakej polohy. Ide o to, že to môže alebo nemusí byť možné. Druhá strana by mohla mať skutočne drahú AI a vy sa snažíte konkurovať matnej a popovej verzii AI.

Nie všetky AI sú rovnaké.

Podnietenie asymetrie AI vo váš prospech

O tejto okolnosti sa dnes veľa nehovorí, čiastočne preto, že je v súčasnosti zriedkavá. Raz to bude bežné. Predpokladajme, že ste bez AI a napriek tomu ste na rovnakej úrovni ako strana, ktorá má AI.

Dobre pre teba.

Ľudia o nich majú svoj rozum.

Ale možno budete chcieť získať výhodu nad druhou stranou. Vyzbrojením sa AI sa dostanete na vyššiu úroveň. Teraz máte v rukách svoj dôvtip a dôveryhodnú AI. Získali ste výhodu, ktorá pravdepodobne prevládne nad AI druhej strany.

Zvýšenie asymetrie AI k vašej mimoriadnej priazni

Ak použijete podobnú logiku ako aspekt vyvolania asymetrie AI vo vašom mene, predpokladajme, že ste už nad schopnosťami druhej strany, ktorá používa AI. Takže nezačínate v rovnakej polohe. Našťastie ste už na hornej strane.

Možno si budete chcieť zabezpečiť ešte väčšiu výhodu. Preto sa vyzbrojte AI. Tým sa vaša hlava a ramená nachádzajú nad druhou stranou.

Neúmyselné podrezanie asymetrie AI vo váš neprospech

Pochybujem, že o tejto možnosti chcete počuť. Uvedomte si prosím, že zaoberať sa AI nie sú len ruže a zmrzlinové koláče.

Môže sa stať, že keď sa vyzbrojíte AI, v skutočnosti sa podrežete. Ak ste už boli menej ako AI druhej strany, ste teraz dole v hlbšej diere. Ak ste mali rovnaké podmienky, ste teraz v nevýhode. Ak ste boli nad druhou stranou, teraz ste rovní alebo pod ňou.

Ako sa to mohlo stať?

Možno budete šokovaní, keď si pomyslíte, že AI, ktorú si osvojíte, vás vyvedie z omylu. Toto sa môže ľahko stať. To, že máte vo svojom rohu AI, neznamená, že je to užitočné. Možno používate AI a poskytuje rady, o ktorých si nemusíte myslieť, že sú vhodné, no napriek tomu sa ich rozhodnete využiť. Vaša logika vtedy bola taká, že keďže ste si dali tú námahu so získaním AI, mohli ste sa na ňu aj spoľahnúť.

AI, ktorú používate, môže byť chybná. Alebo to môže byť zle vymyslené. Existuje množstvo dôvodov, prečo vám AI môže dávať neisté rady. Tí, ktorí slepo akceptujú čokoľvek, čo im AI povie, sa musia ocitnúť vo svete zranení. Vo svojom stĺpčeku som pokryl také trápenia, ako napr odkaz tu.

Pointa je, že neexistuje žiadna záruka, že len preto, že sa vyzbrojíte AI, vyhráte hru AI Asymmetry.

Môžete dosiahnuť rovnaké podmienky. Môžete získať výhodu. A, bohužiaľ, musíte byť opatrní, pretože sa môže stať, že keď ste vyzbrojení AI, klesnete na nižšie úrovne.

To je do istej miery dôvod, prečo je etika AI a etická AI taká kľúčová téma. Prikázania etiky AI nás vedú k tomu, aby sme zostali ostražití. Technológovia umelej inteligencie môžu byť niekedy zaujatí technológiou, najmä optimalizáciou špičkových technológií. Nezohľadňujú nevyhnutne väčšie spoločenské dôsledky. Mať etické myslenie AI a robiť to integrálne s vývojom a zavádzaním AI je nevyhnutné na vytváranie vhodnej AI.

Okrem využívania etiky AI existuje zodpovedajúca otázka, či by sme mali mať zákony upravujúce rôzne spôsoby použitia AI. Na federálnej, štátnej a miestnej úrovni sa zavádzajú nové zákony, ktoré sa týkajú rozsahu a povahy toho, ako by mala byť AI navrhnutá. Snaha vypracovať a prijať takéto zákony je postupná. Etika AI slúži prinajmenšom ako zvažovaná prestávka a takmer určite bude do určitej miery priamo začlenená do týchto nových zákonov.

Uvedomte si, že niektorí neústupne tvrdia, že nepotrebujeme nové zákony, ktoré pokrývajú AI, a že naše existujúce zákony sú dostatočné. V skutočnosti varujú, že ak prijmeme niektoré z týchto zákonov AI, zabijeme zlatú hus tým, že potlačíme pokroky v AI, ktoré ponúkajú obrovské spoločenské výhody. Pozrite si napríklad moje pokrytie na odkaz tu a odkaz tu.

Stavil by som sa, že v tomto bode tejto závažnej diskusie túžite po niekoľkých názorných príkladoch, ktoré by mohli ukázať túto tému. Existuje špeciálny a určite populárny súbor príkladov, ktoré sú môjmu srdcu blízke. Vidíte, ako odborník na AI vrátane etických a právnych dôsledkov ma často žiadajú, aby som identifikoval realistické príklady, ktoré predstavujú dilemy etiky AI, aby bolo možné ľahšie pochopiť trochu teoretickú povahu tejto témy. Jednou z najviac evokujúcich oblastí, ktorá názorne prezentuje tento etický problém AI, je príchod skutočne samoriadiacich áut založených na AI. Bude to slúžiť ako praktický príklad použitia alebo príklad na rozsiahlu diskusiu na túto tému.

Tu je potom pozoruhodná otázka, ktorá stojí za zamyslenie: Osvetlí príchod skutočne samoriadiacich áut založených na AI niečo o asymetrii AI, a ak áno, čo to predstavuje?

Dovoľte mi chvíľu rozbaliť otázku.

Po prvé, všimnite si, že v skutočne samoriadiacom aute nie je žiadny ľudský vodič. Majte na pamäti, že skutočne samoriadiace autá sú poháňané systémom AI. Nie je potrebný ľudský vodič za volantom, ani neexistuje ustanovenie, aby vozidlo riadil človek. Pre moje rozsiahle a neustále pokrytie autonómnych vozidiel (AV) a najmä autonómnych áut viď odkaz tu.

Rád by som ďalej objasnil, čo sa myslí, keď hovorím o skutočne samoriadiacich autách.

Porozumenie úrovniam samoriadiacich automobilov

Pre vysvetlenie, skutočne samoriadiace autá sú tie, kde AI riadi auto úplne sama a pri riadení nie je žiadna asistencia človeka.

Tieto vozidlá bez vodiča sa považujú za úroveň 4 a úroveň 5 (pozri moje vysvetlenie na tento odkaz tu), zatiaľ čo auto, ktoré vyžaduje, aby sa ľudský vodič podieľal na riadení, sa zvyčajne považuje za úroveň 2 alebo úroveň 3. Autá, ktoré sa podieľajú na úlohe riadenia, sú opísané ako poloautonómne a zvyčajne obsahujú rôzne automatizované doplnky, ktoré sa označujú ako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 ešte nie je skutočné samoriadiace auto a ešte ani nevieme, či to bude možné dosiahnuť, ani ako dlho bude trvať, kým sa tam dostaneme.

Medzitým sa úsilie úrovne 4 postupne pokúša získať určitú trakciu podstupovaním veľmi úzkych a selektívnych testov na verejných cestách, hoci existuje polemika o tom, či by toto testovanie malo byť povolené ako také (v experimente sme všetci pokusnými králikmi na život a na smrť). ktoré sa odohrávajú na našich diaľniciach a vedľajších cestách, niektorí tvrdia, pozri moje spravodajstvo na tento odkaz tu).

Keďže poloautonómne automobily si vyžadujú vodiča, prijatie týchto typov automobilov sa nebude výrazne líšiť od riadenia konvenčných vozidiel, takže o tejto téme nie je samo o sebe veľa nových (ako vidíte, uvidíte) za okamih sa spravidla použijú nasledujúce body).

V prípade autonómnych automobilov je dôležité, aby verejnosť musela byť upozornená na rušivý aspekt, ktorý sa objavuje v poslednej dobe, a to napriek tomu, že napriek tým vodičom, ktorí neustále vysielajú svoje videá, ktoré zaspávajú za volantom automobilu úrovne 2 alebo 3 , musíme sa vyhnúť tomu, aby sme boli uvedení do omylu v presvedčenie, že vodič môže odvádzať svoju pozornosť od úlohy pri riadení čiastočne autonómneho vozidla.

Ste zodpovednou stranou za jazdné vlastnosti vozidla bez ohľadu na to, do akej miery by sa automatizácia mohla hodiť na úroveň 2 alebo úroveň 3.

Samoriadiace autá a asymetria AI

Pri vozidlách s vlastným riadením na úrovni 4 a 5 sa do úlohy vedenia vozidla nebude podieľať ľudský vodič.

Všetci cestujúci budú cestujúcimi.

AI robí jazdu.

Jedným z aspektov, o ktorých je potrebné okamžite diskutovať, je skutočnosť, že AI zapojená do dnešných systémov riadenia AI nie je vnímavá. Inými slovami, AI je celkom kolektív počítačového programovania a algoritmov a je nepochybne neschopný uvažovať rovnakým spôsobom ako ľudia.

Prečo je tento zvýšený dôraz na to, aby AI nebola vnímavá?

Pretože by som chcel zdôrazniť, že keď diskutujem o úlohe jazdného systému AI, nepripisujem AI ľudské vlastnosti. Uvedomte si, že v dnešnej dobe pretrváva nebezpečná tendencia k antropomorfizácii AI. Ľudia v podstate priraďujú dnešnému UI sentiment podobný človeku, a to aj napriek nepopierateľnému a nespochybniteľnému faktu, že zatiaľ taký AI neexistuje.

S týmto objasnením si môžete predstaviť, že systém riadenia umelej inteligencie nebude natívne nejako „vedieť“ o aspektoch riadenia. Vedenie vozidla a všetko, čo k tomu patrí, bude potrebné programovať ako súčasť hardvéru a softvéru samostatne riadeného automobilu.

Poďme sa ponoriť do nespočetného množstva aspektov, ktoré sa budú hrať na túto tému.

Po prvé, je dôležité si uvedomiť, že nie všetky autá s umelou inteligenciou sú rovnaké. Každá automobilka a technologická firma s vlastným pohonom pristupuje k navrhovaniu samoriadiacich áut. Preto je ťažké urobiť rozsiahle vyhlásenia o tom, čo AI riadiace systémy urobia alebo neurobia.

Okrem toho, kedykoľvek sa uvádza, že riadiaci systém AI nerobí konkrétne veci, neskôr to môžu predbehnúť vývojári, ktorí počítač v skutočnosti naprogramujú tak, aby to urobil. Krok za krokom sa systémy riadenia AI postupne vylepšujú a rozširujú. Existujúce obmedzenie dnes už nemusí existovať v budúcej iterácii alebo verzii systému.

Dúfam, že to poskytuje dostatočnú litániu upozornení na podloženie toho, čo sa chystám povedať.

Poďme načrtnúť scenár, ktorý predstavuje asymetriu AI.

Zamyslite sa nad zdanlivo bezvýznamnou záležitosťou, kde sa budú samoriadiace autá túlať, aby nabrali cestujúcich. Zdá sa, že je to celkom neškodná téma.

Najprv predpokladajme, že autá s umelou inteligenciou budú jazdiť po celých mestách. Každý, kto chce požiadať o odvoz v samoriadiacom aute, má v podstate rovnakú šancu, že ho zavolá. Umelá inteligencia postupne začína primárne nechávať samoriadiace autá potulovať sa len v jednej časti mesta. Táto sekcia je väčším zdrojom peňazí a AI bola naprogramovaná tak, aby vyskúšala a maximalizovať výnosy ako súčasť používania v komunite vo všeobecnosti (toto podčiarkuje spôsob myslenia, ktorý je základom optimalizácie, konkrétne zameranie sa len na jednu konkrétnu metriku a zanedbávanie iných rozhodujúcich faktorov v procese).

Ukazuje sa, že členovia komunity v chudobných častiach mesta majú menšiu pravdepodobnosť, že sa budú môcť odviezť v samoriadiacom aute. Je to preto, že samojazdiace autá boli ďalej a pohybovali sa v časti mesta s vyššími príjmami. Keď príde požiadavka zo vzdialenej časti mesta, každá iná požiadavka z bližšieho miesta bude mať vyššiu prioritu. V konečnom dôsledku je dostupnosť samoriadiaceho auta na akomkoľvek inom mieste ako v bohatšej časti mesta takmer nemožná, čo je znepokojujúce pre tých, ktorí žili v tých oblastiach, kde sú dnes nedostatok zdrojov.

Vychádzajú vychvaľované sny o mobilite pre všetkých, ktoré majú samoriadiace autá priviesť k životu.

Mohli by ste tvrdiť, že AI celkom pristála na forme štatistickej a výpočtovej zaujatosti, podobnej forme proxy diskriminácie (často označovanej aj ako nepriama diskriminácia). Uvedomte si, že AI nebola naprogramovaná tak, aby sa vyhla chudobnejším štvrtiam. V tomto prípade si to vyjasnime. Nie, namiesto toho bol navrhnutý tak, aby len optimalizoval príjmy, čo je zdanlivo prijateľný cieľ, ale bolo to urobené bez toho, aby vývojári AI uvažovali o iných možných dôsledkoch. Táto optimalizácia zase nevedomky a nevyhnutne viedla k nežiaducemu výsledku.

Keby zahrnuli úvahy o etike AI ako súčasť svojho optimalizačného myslenia, mohli by si vopred uvedomiť, že ak nevytvoria AI tak, aby sa vyrovnala s týmto druhom predimenzovania iba na jednej metrike, mohli by zabrániť takýmto krutým výsledkom. Viac o týchto typoch problémov, ktoré pravdepodobne spôsobí rozšírené prijatie autonómnych vozidiel a áut s vlastným riadením, nájdete v mojom príspevku na tento odkaz tu, opisujúcu štúdiu vedenú Harvardom, na ktorej som sa podieľal na týchto témach.

V každom prípade predpokladajme, že kôň je už vonku z maštale a situácia nie je okamžite prístupná všeobecným riešeniam.

Čo môžu robiť tí, ktorí chcú používať tieto samoriadiace autá?

Najzrejmejším prístupom by bola spolupráca s vedúcimi predstaviteľmi komunity na tom, aby automobilka alebo technologická firma s vlastným pohonom prehodnotila, ako nastavili AI. Možno vyvíjať tlak na akékoľvek licencie alebo povolenia, ktoré boli udelené na nasadenie týchto samoriadiacich áut v danom meste alebo obci. Toto sú pravdepodobne životaschopné prostriedky na dosiahnutie pozitívnych zmien, hoci môže chvíľu trvať, kým tieto snahy prinesú ovocie.

Ďalším uhlom by bolo vyzbrojiť sa AI.

Predstavte si, že niekto šikovne vymyslel aplikáciu založenú na AI, ktorá funguje na vašom smartfóne a zaoberá sa AI výrobcu automobilov alebo prevádzkovateľa vozového parku, ktorý prijíma žiadosti o jazdy. Je možné, že umelá inteligencia, ktorú používate, využíva kľúčové prvky inej umelej inteligencie, takže vaša požiadavka na samoriadiace auto má zvýšenú prioritu. Všimnite si, že nenaznačujem, že sa deje niečo nezákonné, ale namiesto toho bola AI na vašej strane vyvinutá na základe objavených „funkcií“ alebo dokonca medzier v inej AI.

záver

Príbeh o drzom boji proti AI prevádzkovateľa vozového parku samoriadiacich vozidiel tým, že sa vyzbrojí AI, prináša ďalšie spory a úvahy o etike AI.

Napríklad:

  • Ak môže jedna osoba využiť AI na to, aby získala výhodu nad AI iného systému, ako ďaleko to môže zájsť z hľadiska možného prekročenia hraníc etiky AI (presviedčam samoriadiace autá, aby prišli za mnou a mojimi priateľmi, s vylúčením všetkých ostatných)?
  • Existuje tiež zdanie etiky AI, že ak niekto vie o AI alebo je ňou vyzbrojený, aby mohol bojovať s inou AI, mali by zvyšní ľudia, ktorí nemajú túto vyrovnávajúcu AI, byť nejakým spôsobom upozornení na AI a byť schopní sa vyzbrojiť aj podla toho?

Nakoniec nás to všetko privádza do budúcnosti, ktorá sa zdá strašidelná a pozostáva z pretekov v zbrojení AI. Kto bude mať AI, ktorú potrebuje na obchádzanie a prežitie, a kto nie? Bude vždy existovať ešte jedna AI, ktorá príde a vyvolá potrebu vyrovnávacej AI?

Carl Sagan, uznávaný vedec, poskytol túto múdru múdrosť o obzvlášť kataklizmických pretekoch v zbrojení: „Preteky v jadrovom zbrojení sú ako dvaja zaprisahaní nepriatelia stojaci po pás v benzíne, jeden má tri zápalky a druhý päť.“

Musíme sa rozhodne zamerať na to, aby sme si udržali nohy v suchu a čisté hlavy, pokiaľ ide o neustále hroziace preteky v zbrojení s umelou inteligenciou.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/08/19/ai-ethics-wary-about-worsening-of-ai-asymmetry-amid-humans-getting-the-short-end- of-the-stick/