Etika umelej inteligencie je skeptická k zavedeniu takzvaných zákonov AI s červenou vlajkou na vyvolanie neobjektívnych algoritmov v autonómnych systémoch AI

Poďme sa porozprávať o zákonoch červenej vlajky.

Nepochybne viete, že pojem Red Flag Laws je v poslednej dobe široko obsiahnutý v správach. Nadpisov pokrývajúcich túto tému je veľa. Vášne a vášnivé debaty o takýchto záležitostiach sú v popredí záujmu spoločnosti a zahŕňajú súčasné a rýchlo sa objavujúce zákony o zbraniach s červenou vlajkou.

Odvážil by som sa však povedať, že možno nepoznáte ďalšie zákony o červenej zástave prijaté koncom 1800. storočia, ktoré sa týkajú motorových vozidiel a predchodcov dnešných každodenných moderných automobilov. Áno, je to tak, zákony Red Flag siahajú do histórie, hoci pokrývajú iné témy v porovnaní s dnešným súčasným zameraním. Tieto sa zvyčajne označujú ako dopravné zákony s červenou vlajkou.

Tieto teraz storočné a úplne zaniknuté zákony vyžadovali, aby každý motorizovaný vozeň alebo motor poháňaný parou v tom čase mal pred vozidlom dospelú osobu a mal na výstrahu červenú vlajku. Myšlienkou bolo, že dobytok by sa mohol znepokojiť tými hlučnými a protirečivými výstrojmi, ktoré sa pomaly a nerovnomerne valili po prašných alebo okrajovo vydláždených cestách, takže ak by niekto kráčal popred stroja a energicky mával červenou vlajkou, mohol by sa snáď vyhnúť katastrofám. Ak by vás to zaujímalo, železnice a vlaky sa považovali za vylúčené z tých istých zákonov, pretože to boli vozidlá integrálne viazané na koľajnice a mali iné zákony pokrývajúce ich činnosť.

Predstavte si, že by ste dnes museli mávať červenými vlajkami ako požiadavka pre každé auto na našich verejných cestách.

Napríklad obyčajný motorista, ktorý prichádza po ulici vo vašej štvrti, by sa musel uistiť, že pred idúcim autom je prítomný dospelý mávajúci červenou vlajkou. Toto by sa muselo uskutočniť pri každom vozidle prechádzajúcom vašou ulicou. Možno by sa z ľudí stali robotníci s červenou vlajkou, ktorí by najímali okoloidúcich vodičov áut, ktorí by inak nemali priateľa alebo príbuzného, ​​ktorý by mohol ísť pred nimi a urobiť predpísané mávanie.

V súčasnosti máme tendenciu spájať mávanie červenou vlajkou súvisiace s diaľnicami s miestami výstavby ciest. Keď sa priblížite k rozkopanej ceste, pracovníci budú držať červenú vlajku, aby upútali vašu pozornosť. To vám povie, aby ste spomalili a boli v strehu. Do cesty vám môže vraziť buldozér. Pred vami môže byť obrovská diera a budete musieť opatrne prejsť okolo nej.

Ale vráťme sa k používaniu červených vlajok v roku 1800.

Verte tomu alebo nie, mávanie červenej vlajky malo byť minimálne o jednu osminu míle v predstihu pred pripravovaným motorizovaným strojom. Zdá sa mi to ako dosť dlhá vzdialenosť. Dá sa však predpokladať, že v tých časoch to malo veľký zmysel. Prekvapivé zvuky motora a možno aj samotný pohľad na vozidlo by mohli stačiť na to, aby zvieratá znervóznili. Niektoré zo zákonov Červenej vlajky tej doby tiež vyžadovali, aby bolo počas noci držané vo výške svietiace červené svetlo, aby bolo možné z tmavšej vzdialenosti vidieť vizuálne zjavné červené preventívne varovanie.

Vo všeobecnosti si myslím, že je spravodlivé tvrdiť, že my ako spoločnosť máme tendenciu spájať červenú vlajku ako druh signálu alebo znamenia, že niečo nie je v poriadku alebo si to aspoň vyžaduje našu oddanú pozornosť.

Pripravte sa na trochu zvrátenia tohto fenoménu červenej vlajky.

Objavuje sa tvrdenie, že by sme mali vyžadovať ustanovenia o varovaní, pokiaľ ide o umelú inteligenciu (AI).

To je trochu zarážajúce a prekvapivý koncept, ktorý mnohým láme hlavu. Môžete byť zmätení, ako alebo prečo by mali existovať tzv Zákony AI s červenou vlajkou. Upozorňujeme, že to označujem ako zákony o umelej inteligencii s červenou vlajkou, aby som túto záležitosť odlíšil od dopravných zákonov s červenou vlajkou (ako sú tie z konca 1800. storočia) a tiež preto, aby som ich odlíšil od dnešných iných rozšírenejších zákonov o zbraniach s červenou vlajkou.

Potrebujeme v skutočnosti zákony o umelej inteligencii Red Flag, ktoré sú zreteľne a výlučne zamerané na záležitosti AI?

Tí, ktorí uprednostňujú navrhovaný prístup, by trvali na tom, že bezpodmienečne potrebujeme právne ustanovenia, ktoré by pomohli potlačiť AI, ktorá obsahuje neprimerané zaujatosti a koná diskriminačným spôsobom. Práve teraz je budovanie a nasadzovanie AI podobné okolnostiam na Divokom západe. Úsilie obmedziť zlú AI v súčasnosti závisí od formulácie a prijatia usmernení o etike AI. Moje pokračujúce a rozsiahle pokrytie etiky AI a etickej AI nájdete v časti odkaz tu a odkaz tu, Len aby sme vymenovali niekoľko.

Zákony, ktoré škatuľkujú zlú AI, sa pomaly vymýšľajú a prijímajú, pozri moje pokrytie na odkaz tu. Niektorí sa obávajú, že zákonodarcovia nejdú dostatočne rýchlo. Zdá sa, že záplavové brány umožňujúce podporovať zaujatú AI vo svete sú práve teraz do značnej miery otvorené. Ručné žmýkanie hovorí, že kým sa do kníh dostanú nové zákony, zlý džin už bude z fľaše von.

Nie tak rýchlo, protiargumenty idú. Obávame sa, že ak sa zákony zavedú príliš rýchlo, zabijeme takpovediac zlatú hus, čím vyschnú snahy o umelú inteligenciu a nezískame spoločensky posilňujúce výhody nových systémov umelej inteligencie. Vývojári a firmy AI, ktoré chcú používať AI, sa môžu vydesiť, ak sa náhle zavedie rad nových zákonov upravujúcich AI na federálnej, štátnej a miestnej úrovni, nehovoriac o medzinárodných zákonoch týkajúcich sa AI, ktoré tiež postupujú vpred.

Do tejto chaotickej záležitosti prichádza volanie po zákonoch Red Flag AI.

Predtým, ako sa dostaneme k mäsu a zemiakom o divokých a vlnených úvahách, ktoré sú základom predpokladaného zákona o umelej inteligencii s červenou vlajkou, stanovme si niekoľko ďalších základov na úplne zásadné témy. Musíme sa krátko ponoriť do etiky AI a najmä do nástupu strojového učenia (ML) a hlbokého učenia (DL).

Možno ste si matne uvedomovali, že jeden z najhlasnejších hlasov v súčasnosti v oblasti AI a dokonca aj mimo oblasti AI pozostáva z volania po väčšej podobe Etickej AI. Poďme sa pozrieť na to, čo znamená odvolávať sa na etiku umelej inteligencie a etickú umelú inteligenciu. Okrem toho preskúmame, čo mám na mysli, keď hovorím o strojovom učení a hĺbkovom učení.

Jeden konkrétny segment alebo časť etiky umelej inteligencie, ktorá si získala veľkú pozornosť médií, pozostáva z umelej inteligencie, ktorá sa prejavuje nežiaducimi zaujatosťami a nerovnosťami. Možno ste si vedomí toho, že keď sa rozbehla najnovšia éra AI, došlo k obrovskému výbuchu nadšenia pre to, čo niektorí dnes nazývajú AI pre dobro. Bohužiaľ, v pätách tohto tryskajúceho vzrušenia sme začali byť svedkami AI pre zlé. Napríklad sa ukázalo, že rôzne systémy na rozpoznávanie tváre založené na AI obsahujú rasové a rodové predsudky, o ktorých som diskutoval na odkaz tu.

Snahy brániť sa AI pre zlé aktívne prebiehajú. Okrem hlučného právne v snahe o zvládnutie previnenia existuje aj výrazný tlak na prijatie etiky AI, aby sa napravila odpornosť AI. Myšlienka je taká, že by sme mali prijať a podporiť kľúčové etické princípy AI pre vývoj a zavádzanie AI, aby sme podkopali AI pre zlé a súčasne ohlasovať a podporovať preferované AI pre dobro.

V súvislosti s tým som zástancom pokusu použiť AI ako súčasť riešenia problémov s AI a bojovať s ohňom ohňom týmto spôsobom myslenia. Mohli by sme napríklad vložiť etické komponenty AI do systému AI, ktorý bude monitorovať, ako zvyšok AI robí veci, a tak potenciálne zachytiť v reálnom čase akékoľvek diskriminačné snahy, pozri moju diskusiu na odkaz tu. Mohli by sme mať aj samostatný systém AI, ktorý funguje ako typ monitora etiky AI. Systém AI slúži ako dozorca na sledovanie a zisťovanie, kedy sa iná AI dostane do neetickej priepasti (pozri moju analýzu takýchto schopností na odkaz tu).

O chvíľu sa s vami podelím o niekoľko základných princípov, ktoré sú základom etiky AI. Takýchto zoznamov sa tu a tam pohybuje veľa. Dalo by sa povedať, že zatiaľ neexistuje jednotný zoznam univerzálnej príťažlivosti a súbežnosti. To je tá nešťastná správa. Dobrou správou je, že aspoň existujú ľahko dostupné zoznamy etiky AI a bývajú dosť podobné. Celkovo to naznačuje, že formou rozumnej konvergencie svojho druhu nachádzame cestu k všeobecnej zhode toho, z čoho pozostáva etika umelej inteligencie.

Najprv si stručne popíšme niektoré z celkových etických zásad AI, aby sme ilustrovali, čo by malo byť životne dôležitým faktorom pre každého, kto vytvára, využíva alebo používa AI.

Napríklad, ako uvádza Vatikán v Rím vyzýva na etiku AI a ako som sa podrobne venoval odkaz tuToto je ich identifikovaných šesť základných etických princípov AI:

  • transparentnosť: V zásade musia byť systémy AI vysvetliteľné
  • začlenenie: Potreby všetkých ľudských bytostí musia byť brané do úvahy, aby z toho mohol mať úžitok každý, a aby všetkým jednotlivcom mohli byť ponúknuté najlepšie možné podmienky na sebavyjadrenie a rozvoj.
  • odpovedá: Tí, ktorí navrhujú a nasadzujú používanie AI, musia postupovať zodpovedne a transparentne
  • nestrannosť: Nevytvárajte ani nekonajte podľa zaujatosti, čím si zabezpečíte spravodlivosť a ľudskú dôstojnosť
  • Spoľahlivosť: Systémy AI musia byť schopné spoľahlivo fungovať
  • Bezpečnosť a súkromie: Systémy AI musia fungovať bezpečne a rešpektovať súkromie používateľov.

Ako uviedlo americké ministerstvo obrany (DoD) vo svojom Etické princípy používania umelej inteligencie a ako som sa podrobne venoval odkaz tuToto je ich šesť základných etických princípov AI:

  • Zodpovedný: Personál ministerstva obrany bude uplatňovať primeranú úroveň úsudku a starostlivosti, pričom zostane zodpovedný za vývoj, nasadenie a používanie schopností AI.
  • Spravodlivé: Ministerstvo podnikne premyslené kroky, aby minimalizovalo neúmyselné skreslenie schopností AI.
  • Vysledovateľné: Schopnosti umelej inteligencie ministerstva sa vyvinú a rozmiestnia tak, aby príslušní pracovníci primerane rozumeli technológiám, vývojovým procesom a prevádzkovým metódam použiteľným na schopnosti umelej inteligencie, vrátane transparentných a kontrolovateľných metodík, zdrojov údajov a návrhových postupov a dokumentácie.
  • spoľahlivosť: Schopnosti umelej inteligencie ministerstva budú mať explicitné, dobre definované využitie a bezpečnosť, zabezpečenie a efektívnosť takýchto schopností bude predmetom testovania a zabezpečenia v rámci týchto definovaných použití počas celého životného cyklu.
  • Riaditeľné: Ministerstvo navrhne a skonštruuje schopnosti AI tak, aby plnili zamýšľané funkcie, pričom majú schopnosť odhaliť a vyhnúť sa neúmyselným následkom a schopnosť odpojiť alebo deaktivovať nasadené systémy, ktoré prejavujú neúmyselné správanie.

Diskutoval som aj o rôznych kolektívnych analýzach etických princípov AI, vrátane toho, že som sa zaoberal súborom navrhnutým výskumníkmi, ktorí preskúmali a zhrnuli podstatu mnohých národných a medzinárodných etických zásad AI v článku s názvom „Globálna krajina etických zásad AI“ (zverejnená v príroda), a ktoré moje pokrytie skúma na odkaz tu, čo viedlo k tomuto kľúčovému zoznamu:

  • Priehľadnosť
  • Spravodlivosť a spravodlivosť
  • Neškodnosť
  • zodpovednosť
  • súkromia
  • dobročinnosť
  • Sloboda a autonómia
  • Verte
  • Udržateľnosť
  • dôstojnosť
  • Solidarita

Ako môžete priamo uhádnuť, pokúsiť sa určiť špecifiká, ktoré sú základom týchto princípov, môže byť mimoriadne ťažké. O to viac, snaha premeniť tieto široké princípy na niečo úplne hmatateľné a dostatočne podrobné na to, aby sa dali použiť pri vytváraní systémov AI, je tiež tvrdým orieškom. Celkovo je ľahké mávnuť rukou nad tým, čo sú to etické predpisy AI a ako by sa mali vo všeobecnosti dodržiavať, zatiaľ čo v kódovaní AI je oveľa komplikovanejšia situácia, keď musí ísť o skutočnú gumu, ktorá sa stretáva s vozovkou.

Princípy AI etiky majú využívať vývojári AI spolu s tými, ktorí riadia snahy o vývoj AI, a dokonca aj tí, ktorí v konečnom dôsledku nasadzujú a vykonávajú údržbu systémov AI. Všetky zainteresované strany počas celého životného cyklu vývoja a používania AI sa berú do úvahy v rámci dodržiavania zavedených noriem Etickej AI. Toto je dôležitý prvok, pretože zvyčajný predpoklad je, že „iba kóderi“ alebo tí, ktorí programujú AI, podliehajú dodržiavaniu etických pojmov AI. Ako už bolo spomenuté, na vymyslenie a nasadenie AI je potrebná dedina, v ktorej sa celá dedina musí vyznať a dodržiavať etické predpisy AI.

Uistime sa tiež, že sme na rovnakej stránke o povahe dnešnej AI.

Dnes neexistuje žiadna umelá inteligencia, ktorá by bola vnímavá. Toto my nemáme. Nevieme, či bude vnímajúca AI možná. Nikto nemôže vhodne predpovedať, či dosiahneme vnímajúcu AI, ani to, či sa vnímajúca AI nejakým zázrakom spontánne objaví vo forme výpočtovej kognitívnej supernovy (zvyčajne označovanej ako singularita, pozri moje pokrytie na odkaz tu).

Typ AI, na ktorý sa zameriavam, pozostáva z necitlivej AI, ktorú máme dnes. Ak by sme chceli divoko špekulovať o cítiaci AI, táto diskusia by sa mohla uberať radikálne iným smerom. Vnímajúca AI by mala mať ľudské kvality. Mali by ste zvážiť, že vnímajúca AI je kognitívnym ekvivalentom človeka. Navyše, keďže niektorí špekulujú, že by sme mohli mať superinteligentnú AI, je možné, že takáto AI by mohla byť inteligentnejšia ako ľudia (pre môj prieskum superinteligentnej AI ako možnosti pozri pokrytie tu).

Nechajme veci viac pri zemi a zvážme dnešnú výpočtovú necitlivú AI.

Uvedomte si, že dnešná AI nie je schopná „myslieť“ akýmkoľvek spôsobom na rovnakej úrovni ako ľudské myslenie. Keď komunikujete s Alexou alebo Siri, konverzačné schopnosti sa môžu zdať podobné ľudským schopnostiam, ale realita je taká, že sú výpočtové a chýba im ľudské poznanie. Najnovšia éra AI vo veľkej miere využíva strojové učenie (ML) a hlboké učenie (DL), ktoré využívajú porovnávanie výpočtových vzorov. To viedlo k systémom AI, ktoré vyzerajú ako ľudia. Medzitým dnes neexistuje žiadna umelá inteligencia, ktorá by mala zdanie zdravého rozumu, ani žiadny z kognitívnych zázrakov robustného ľudského myslenia.

ML/DL je forma porovnávania výpočtových vzorov. Zvyčajný prístup je taký, že zhromažďujete údaje o úlohe rozhodovania. Dáta vložíte do počítačových modelov ML/DL. Tieto modely sa snažia nájsť matematické vzorce. Po nájdení takýchto vzorov, ak sa nájdu, systém AI potom použije tieto vzory pri stretnutí s novými údajmi. Po predložení nových údajov sa na vyvodenie aktuálneho rozhodnutia použijú vzory založené na „starých“ alebo historických údajoch.

Myslím, že viete hádať, kam to smeruje. Ak ľudia, ktorí sa rozhodovali podľa vzoru, začlenili do seba nepriaznivé predsudky, je pravdepodobné, že údaje to odrážajú jemným, ale významným spôsobom. Zhoda výpočtových vzorov Machine Learning alebo Deep Learning sa jednoducho pokúsi zodpovedajúcim spôsobom matematicky napodobniť údaje. Neexistuje žiadne zdanie zdravého rozumu alebo iných vnímavých aspektov modelovania vytvoreného AI ako takého.

Okrem toho si vývojári AI nemusia uvedomiť, čo sa deje. Tajomná matematika v ML/DL môže sťažiť odhalenie teraz skrytých predsudkov. Oprávnene by ste dúfali a očakávali, že vývojári AI budú testovať potenciálne skryté predsudky, hoci je to zložitejšie, ako by sa mohlo zdať. Existuje solídna šanca, že aj pri relatívne rozsiahlom testovaní budú v modeloch zhody vzorov ML/DL stále zakomponované odchýlky.

Do istej miery by ste mohli použiť známe alebo neslávne známe príslovie o odpadkoch do odpadu. Ide o to, že je to skôr podobné zaujatostiam – in, ktoré sa zákerne naplnia, keď sa predsudky ponoria do AI. Algoritmus rozhodovania (ADM) AI je axiomaticky zaťažený nerovnosťami.

Nie dobré.

Vráťme sa k nášmu zameraniu na zákony Red Flag AI.

Základným konceptom je, že ľudia by mohli zdvihnúť červenú vlajku, kedykoľvek by sa domnievali, že systém AI funguje neprimerane zaujatým alebo diskriminačným spôsobom. Nezdvíhali by ste fyzickú vlajku ako takú a namiesto toho by ste jednoducho používali nejaké elektronické prostriedky na vyjadrenie svojich obáv. Časť schémy alebo prístupu s červenou vlajkou je skôr metaforou ako fyzickým stelesnením.

Predstierajte, že ste žiadali o úver na bývanie. Na žiadosť o pôžičku sa rozhodnete využiť službu online bankovníctva. Po zadaní niektorých osobných údajov chvíľu počkáte, kým systém AI, ktorý sa používa, rozhodne, či ste hodní pôžičky alebo nie. AI vám povie, že vám bola zamietnutá pôžička. Po vyžiadaní vysvetlenia, prečo ste boli odmietnutí, sa vám zdá, že textový príbeh naznačuje, že AI používala ako súčasť rozhodovacieho algoritmu neprimerané neobjektívne faktory.

Čas vztýčiť červenú vlajku o AI.

Kde presne bude mávať táto červená vlajka?

To je otázka za milión.

Jedným z hľadísk je, že by sme mali vytvoriť celoštátnu databázu, ktorá by ľuďom umožnila označiť svoje červené vlajky súvisiace s AI. Niektorí hovoria, že by to mala regulovať federálna vláda. Federálne agentúry by boli zodpovedné za preskúmanie červených vlajok a poskytnutie pomoci širokej verejnosti, pokiaľ ide o pravdivosť a riešenie pravdepodobne „zlej AI“, ktorá podnietila záznamy o hláseniach červených vlajok.

Národný zákon o umelej inteligencii s červenou vlajkou by zrejme zaviedol Kongres. Zákon by upresnil, čo je červená vlajka súvisiaca s AI. Zákon by popisoval, ako sa tieto hlučné červené vlajky AI vztyčujú. A tak ďalej. Môže sa tiež stať, že jednotlivé štáty sa môžu rozhodnúť vytvoriť si vlastné zákony o umelej inteligencii s červenou vlajkou. Možno to robia namiesto národnej iniciatívy alebo to robia preto, aby umocnili podrobnosti, ktoré sú obzvlášť príťažlivé pre ich konkrétny štát.

Kritici federálneho alebo akéhokoľvek vládou podporovaného programu umelej inteligencie Red Flag by tvrdili, že toto je niečo, čo môže urobiť súkromný priemysel, a nepotrebujeme, aby sa do popredia dostal Veľký brat. Priemysel by mohol vytvoriť online úložisko, do ktorého by ľudia mohli zaregistrovať varovné signály o systémoch AI. Samokontrolné opatrenie odvetvia by sa týmito otázkami dostatočne zaoberalo.

Výčitkou o údajnom priemyselnom prístupe je, že sa zdá, že zaváňa klientelizmom. Boli by firmy ochotné podriadiť sa nejakej súkromne prevádzkovanej databáze AI Red Flag? Mnoho firiem by potenciálne ignorovalo označené červené vlajky týkajúce sa ich AI. Nemali by sme ostré zuby na to, aby sa spoločnosti vysporiadali so zadanými červenými vlajkami.

Hej, zástancovia prístupu súkromného sektora znejú, toto by bolo niečo ako národná služba podobná Yelpu. Spotrebitelia sa mohli pozrieť na červené vlajky a sami sa rozhodnúť, či chcú obchodovať so spoločnosťami, ktoré nazbierali množstvo červených vlajok zameraných na AI. Banka, ktorá dostávala tony varovných signálov o svojej AI, by musela venovať pozornosť a prepracovať svoje systémy AI, takže logika vychádza, inak by sa spotrebitelia vyhýbali firme ako mor.

To, či celý tento prístup vykonáva vláda alebo priemysel, je len špičkou ľadovca v chúlostivých otázkach, ktorým čelí navrhovaný postulát zákonov Red Flag AI.

Vžite sa do kože firmy, ktorá vyvinula alebo používa AI. Mohlo by sa stať, že spotrebitelia upozornia na varovanie, aj keď na to neexistuje žiadny životaschopný základ. Ak by ľudia mohli slobodne vyvesiť varovnú vlajku o AI, mohli by byť v pokušení urobiť to z rozmaru alebo možno z pomsty voči firme, ktorá inak voči spotrebiteľovi neurobila nič zlé.

Stručne povedané, o AI by mohlo byť veľa falošne pozitívnych červených vlajok.

Ďalšou úvahou je masívna veľkosť alebo veľkosť výsledných červených zástav. Ľahko by mohli byť vztýčené milióny a milióny červených zástav. Kto bude nasledovať všetky tie červené vlajky? Koľko by to stálo? Kto zaplatí za následné snahy o červené vlajky? Atď.

Ak by ste povedali, že každý, kto sa zaregistruje alebo nahlási varovanie o AI, musí zaplatiť poplatok, dostali ste sa do temnej a zákernej ríše. Obava by bola, že len bohatí by si mohli dovoliť vyvesiť červené vlajky. To zase znamená, že chudobní by sa nemohli rovnako zúčastňovať na činnostiach s červenou vlajkou a v podstate by nemali priestor na varovanie pred nepriaznivou AI.

Zatiaľ len jeden ďalší zvrat, konkrétne, že tento druh zákonov alebo usmernení týkajúcich sa umelej inteligencie sa zdá byť dodatočný a neslúžil ako varovanie vopred.

Keď sa vrátime k dopravným zákonom s červenou vlajkou, dôraz na používanie červenej vlajky bol odvrátiť od začiatku katastrofu. Červená vlajka mala byť ďaleko pred blížiacim sa autom. Tým, že bude pred vozidlom, bude dobytok upozornený a tí, ktorí ho strážia, budú vedieť, že by mali prijať preventívne opatrenia z dôvodu skorého príchodu rušivého zdroja.

Ak sú ľudia schopní iba upozorniť na AI, ktorá už zdanlivo poškodila alebo podkopala ich práva, povestný kôň je už vonku zo stodoly. Zdá sa, že sa tým dosiahne len to, že dúfajme, že ostatní prichádzajúci ľudia budú vedieť, že sa majú na tento systém AI obávať. Medzitým už trpela osoba, ktorej sa údajne stala krivda.

Niektorí navrhujú, že by sme mohli ľuďom dovoliť, aby upozornili na AI podozrivý môžu byť zaujatí, aj keď nepoužili AI a neboli priamo ovplyvnení AI. Červená vlajka sa teda máva skôr, ako dôjde k poškodeniu.

Fuj, odveta, naozaj urobíte z červených vlajok, ktoré AI zvládajú, úplne nezvládnuteľnú a chaotickú záležitosť. Ak niekto z akéhokoľvek dôvodu môže upozorniť na systém AI, napriek tomu, že s touto AI neurobil vôbec nič, budete zaplavení červenými vlajkami. Ešte horšie je, že nerozoznáte zrno od pliev. Celý prístup k červenej vlajke sa zrúti pod svojou vlastnou váhou, čím sa zničí dobrota nápadu tým, že flotsam a riffraff potopia celú loď.

Závratné a mätúce.

Stavil by som sa, že v tomto bode tejto závažnej diskusie túžite po niekoľkých názorných príkladoch, ktoré by mohli ukázať túto tému. Existuje špeciálny a určite populárny súbor príkladov, ktoré sú môjmu srdcu blízke. Vidíte, ako odborník na AI vrátane etických a právnych dôsledkov ma často žiadajú, aby som identifikoval realistické príklady, ktoré predstavujú dilemy etiky AI, aby bolo možné ľahšie pochopiť trochu teoretickú povahu tejto témy. Jednou z najviac evokujúcich oblastí, ktorá názorne prezentuje tento etický problém AI, je príchod skutočne samoriadiacich áut založených na AI. Bude to slúžiť ako praktický príklad použitia alebo príklad na rozsiahlu diskusiu na túto tému.

Tu je potom pozoruhodná otázka, ktorá stojí za zamyslenie: Osvetľuje príchod skutočne samoriadiacich áut založených na AI niečo o zákonoch Red Flag AI, a ak áno, čo to ukazuje?

Dovoľte mi chvíľu rozbaliť otázku.

Po prvé, všimnite si, že v skutočne samoriadiacom aute nie je žiadny ľudský vodič. Majte na pamäti, že skutočne samoriadiace autá sú poháňané systémom AI. Nie je potrebný ľudský vodič za volantom, ani neexistuje ustanovenie, aby vozidlo riadil človek. Pre moje rozsiahle a neustále pokrytie autonómnych vozidiel (AV) a najmä autonómnych áut viď odkaz tu.

Rád by som ďalej objasnil, čo sa myslí, keď hovorím o skutočne samoriadiacich autách.

Porozumenie úrovniam samoriadiacich automobilov

Pre vysvetlenie, skutočne samoriadiace autá sú tie, kde AI riadi auto úplne sama a pri riadení nie je žiadna asistencia človeka.

Tieto vozidlá bez vodiča sa považujú za úroveň 4 a úroveň 5 (pozri moje vysvetlenie na tento odkaz tu), zatiaľ čo auto, ktoré vyžaduje, aby sa ľudský vodič podieľal na riadení, sa zvyčajne považuje za úroveň 2 alebo úroveň 3. Autá, ktoré sa podieľajú na úlohe riadenia, sú opísané ako poloautonómne a zvyčajne obsahujú rôzne automatizované doplnky, ktoré sa označujú ako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 ešte nie je skutočné samoriadiace auto a ešte ani nevieme, či to bude možné dosiahnuť, ani ako dlho bude trvať, kým sa tam dostaneme.

Medzitým sa úsilie úrovne 4 postupne pokúša získať určitú trakciu podstupovaním veľmi úzkych a selektívnych testov na verejných cestách, hoci existuje polemika o tom, či by toto testovanie malo byť povolené ako také (v experimente sme všetci pokusnými králikmi na život a na smrť). ktoré sa odohrávajú na našich diaľniciach a vedľajších cestách, niektorí tvrdia, pozri moje spravodajstvo na tento odkaz tu).

Keďže poloautonómne automobily si vyžadujú vodiča, prijatie týchto typov automobilov sa nebude výrazne líšiť od riadenia konvenčných vozidiel, takže o tejto téme nie je samo o sebe veľa nových (ako vidíte, uvidíte) za okamih sa spravidla použijú nasledujúce body).

V prípade autonómnych automobilov je dôležité, aby verejnosť musela byť upozornená na rušivý aspekt, ktorý sa objavuje v poslednej dobe, a to napriek tomu, že napriek tým vodičom, ktorí neustále vysielajú svoje videá, ktoré zaspávajú za volantom automobilu úrovne 2 alebo 3 , musíme sa vyhnúť tomu, aby sme boli uvedení do omylu v presvedčenie, že vodič môže odvádzať svoju pozornosť od úlohy pri riadení čiastočne autonómneho vozidla.

Ste zodpovednou stranou za jazdné vlastnosti vozidla bez ohľadu na to, do akej miery by sa automatizácia mohla hodiť na úroveň 2 alebo úroveň 3.

Samoriadiace autá a zákony AI s červenou vlajkou

Pri vozidlách s vlastným riadením na úrovni 4 a 5 sa do úlohy vedenia vozidla nebude podieľať ľudský vodič.

Všetci cestujúci budú cestujúcimi.

AI robí jazdu.

Jedným z aspektov, o ktorých je potrebné okamžite diskutovať, je skutočnosť, že AI zapojená do dnešných systémov riadenia AI nie je vnímavá. Inými slovami, AI je celkom kolektív počítačového programovania a algoritmov a je nepochybne neschopný uvažovať rovnakým spôsobom ako ľudia.

Prečo je tento zvýšený dôraz na to, aby AI nebola vnímavá?

Pretože by som chcel zdôrazniť, že keď diskutujem o úlohe jazdného systému AI, nepripisujem AI ľudské vlastnosti. Uvedomte si, že v dnešnej dobe pretrváva nebezpečná tendencia k antropomorfizácii AI. Ľudia v podstate priraďujú dnešnému UI sentiment podobný človeku, a to aj napriek nepopierateľnému a nespochybniteľnému faktu, že zatiaľ taký AI neexistuje.

S týmto objasnením si môžete predstaviť, že systém riadenia umelej inteligencie nebude natívne nejako „vedieť“ o aspektoch riadenia. Vedenie vozidla a všetko, čo k tomu patrí, bude potrebné programovať ako súčasť hardvéru a softvéru samostatne riadeného automobilu.

Poďme sa ponoriť do nespočetného množstva aspektov, ktoré sa budú hrať na túto tému.

Po prvé, je dôležité si uvedomiť, že nie všetky autá s umelou inteligenciou sú rovnaké. Každá automobilka a technologická firma s vlastným pohonom pristupuje k navrhovaniu samoriadiacich áut. Preto je ťažké urobiť rozsiahle vyhlásenia o tom, čo AI riadiace systémy urobia alebo neurobia.

Okrem toho, kedykoľvek sa uvádza, že riadiaci systém AI nerobí konkrétne veci, neskôr to môžu predbehnúť vývojári, ktorí počítač v skutočnosti naprogramujú tak, aby to urobil. Krok za krokom sa systémy riadenia AI postupne vylepšujú a rozširujú. Existujúce obmedzenie dnes už nemusí existovať v budúcej iterácii alebo verzii systému.

Dúfam, že to poskytuje dostatočnú litániu upozornení na podloženie toho, čo sa chystám povedať.

Načrtnime scenár, ktorý by mohol využiť zákon Red Flag AI.

Nasadnete do samoriadiaceho auta založeného na AI a chcete, aby vás autonómne vozidlo odviezlo do miestneho obchodu s potravinami. Počas relatívne krátkej cesty sa AI vydá cestou, ktorá sa vám zdá byť trochu nesprávna. Umelá inteligencia namiesto toho, aby išla najpriamejšou cestou, naviguje do ulíc mimo cesty, čo spôsobuje, že čas jazdy je dlhší, než by normálne mohol byť.

Čo sa deje?

Za predpokladu, že platíte za používanie autonómneho auta, môžete byť podozriví, že AI bola naprogramovaná na jazdu po dlhšej trase, aby sa pokúsila zvýšiť cestovné alebo náklady na cestu. Každý, kto si niekedy vzal konvenčnú kabínu poháňanú človekom, vie o triku, ktorý sa môže stať, aby sa na meter dostal viac cesta. Samozrejme, s ľuďmi, ktorí majú na svojich smartfónoch GPS počas jazdy v kabíne alebo ekvivalente, môžete ľahko zachytiť ľudského vodiča, ktorý sa zdá, že záludne prechádza zbytočne dlhé trasy.

Ukázalo sa, že máte ďalšie obavy z výberu trasy, niečo, čo vás skutočne nahlodáva.

Predpokladajme, že smerovanie bolo vykonané s cieľom vyhnúť sa určitým častiam mesta kvôli rasovým aspektom. Existujú zdokumentované prípady ľudských vodičov, ktorí boli prichytení pri takejto voľbe, pozri moju diskusiu na odkaz tu. Možno bola AI naprogramovaná nepriaznivo.

Rozhodnete sa vyvesiť červenú vlajku.

V záujme diskusie predpokladajme, že bol prijatý zákon o umelej inteligencii s červenou vlajkou, ktorý sa vzťahuje na vašu jurisdikciu. Môže ísť o miestne právo, štátne právo, federálne alebo medzinárodné právo. Analýzu, ktorú som napísal spolu s Harvard's Autonomous Vehicle Policy Initiative (AVPI) o rastúcej dôležitosti miestneho vedenia, keď komunity prijímajú používanie samoriadiacich áut, nájdete na odkaz tu.

Takže prejdete online do databázy AI Red Flag. Do databázy incidentov zadávate informácie o jazde samoriadiaceho auta. To zahŕňa dátum a čas jazdy spolu so značkou a modelom samoriadiaceho auta. Potom vstúpite do navigačnej trasy, ktorá sa zdala byť podozrivá, a naznačujete alebo možno priamo tvrdíte, že AI bola navrhnutá so zaujatým alebo diskriminačným zámerom a kapacitami.

O tom, čo sa stane ďalej v tomto konkrétnom scenári, by sme museli špekulovať o ďalších podrobnostiach zákona o umelej inteligencii Red Flag. Teoreticky by existovalo ustanovenie, aby niekto kontroloval červenú vlajku. Pravdepodobne by sa snažili prinútiť automobilku alebo samoriadiacu technickú firmu, aby vysvetlila svoj názor na prihlásenú červenú vlajku. Koľko ďalších takýchto červených zástav bolo zaregistrovaných? Aké výsledky priniesli tieto červené vlajky?

A tak by to šlo ďalej.

záver

Je absurdné, nabádajú niektorí skeptici.

Nepotrebujeme zákony Red Flag AI, tie prísne uplatňujú. Ak niečo také urobíte, skráti sa to, pokiaľ ide o tempo a pokrok AI. Akékoľvek takéto zákony by boli nepraktické. Vytvorili by ste problém, ktorý problém nerieši. Existujú aj iné spôsoby, ako sa vysporiadať s AI, ktoré sú zlé. Nechytajte sa slepo za slamky, aby ste sa vyrovnali so zaujatou AI.

Všetci vieme, že pri preraďovaní toreadorov používajú červené plášte, aby zjavne upútali pozornosť nahnevaného býka. Hoci je červená farba, ktorú si s touto praxou najviac spájame, možno vás prekvapí, že vedci tvrdia, že býci nevnímajú červenú farbu mulet (sú farboslepí k červenej). Populárna šou Mythbusters urobil celkom zábavné preskúmanie tejto záležitosti. Kľúčovým prvkom je skôr pohyb plášťa ako zvolená farba.

Pre tých, ktorí zavrhli potrebu zákonov o umelej inteligencii s červenou vlajkou, protiargumentom je, že potrebujeme niečo dramatického a nezameniteľného mávajúceho charakteru, aby sme zaistili, že vývojári AI a firmy využívajúce AI sa vyhnú zaujatej alebo zlej AI. Ak nie červená vlajka, možno vlajúci plášť alebo v podstate akýkoľvek druh varovania by mohol byť v oblasti získania náležitej pozornosti.

S istotou vieme, že zlá AI existuje a že oveľa viac zlej AI bude smerovať naším smerom. Hľadanie spôsobov, ako sa chrániť pred nepriaznivou AI, je kľúčové. Rovnako dôležité je aj nastavenie mantinelov, aby ste zabránili zlému AI dostať sa do sveta.

Ernest Hemingway slávne povedal, že nikto nikdy neprežije svoj život úplne hore, okrem toreadorov. Musíme sa uistiť, že ľudia môžu žiť svoj život po celú dobu, bez ohľadu na akúkoľvek zlú alebo šialenú umelú inteligenciu, ktorá je na nás propagovaná.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-known-red-flag-ai-laws-for-calling-out- zaujaté-algoritmy-v-autonómnych-ai-systémoch/