Etika umelej inteligencie a zákon o umelej inteligencii zvažujú kľúčové spôsoby implementácie nedávno vydanej listiny práv na umelú inteligenciu, a to prekvapivo aj priamym používaním umelej inteligencie

Niet pochýb o tom, že plány potrebujeme v našom každodennom živote.

Ak sa chystáte stavať svoj dlho očakávaný dom snov, bolo by múdre najprv zostaviť použiteľný plán.

Plán predstavuje hmatateľným a zdokumentovaným spôsobom akúkoľvek vizionársku perspektívu so širokými očami, ktorá môže byť zamknutá vo vašom noggin. Tí, ktorí budú vyzvaní, aby postavili vašu drahocennú usadlosť, sa budú môcť odvolať na plán a uviesť podrobnosti o tom, ako túto prácu vykonať. Modrotlače sú praktické. Absencia náčrtu je určite problematická pri riešení akejkoľvek zložitej práce alebo projektu.

Presuňme túto trochu sentimentálnu, ale skutočnú poctu plánom do sféry umelej inteligencie (AI).

Tí z vás, ktorí sa v podstate venujú AI, si môžu matne uvedomovať, že ide o dôležitú politiku modrotlač bola nedávno vydaná v USA, ktorá sa preukázateľne týka budúcnosti AI. Neoficiálne známy ako Listina práv AI, oficiálny názov vyhlásenej bielej knihy je „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People“ a je ľahko dostupný online.

Dokument je výsledkom ročného úsilia a pozornej štúdie Úradu pre politiku vedy a techniky (OSTP). OSTP je federálna entita, ktorá bola založená v polovici 1970. rokov XNUMX. storočia a slúži na poskytovanie poradenstva americkému prezidentovi a výkonnému úradu USA v rôznych technologických, vedeckých a inžinierskych aspektoch národného významu. V tomto zmysle môžete povedať, že táto listina práv AI je dokument schválený a schválený existujúcim Bielym domom USA.

Listina práv AI zobrazuje ľudské práva ktoré by ľudstvo malo mať v súvislosti s príchodom AI do nášho každodenného života. Zdôrazňujem tento závažný bod, pretože niektorí ľudia boli najprv zmätení, že možno ide o nejaký druh uznania právnej subjektivity AI a že ide o litániu práv vnímajúcich AI a humanoidných robotov. Nie, ešte tam nie sme. Ako o chvíľu uvidíte, k vnímajúcej AI sa ani zďaleka nepribližujeme, a to aj napriek nadpisom bannerov, ktoré nám, ako sa zdá, hovoria niečo iné.

Dobre, takže potrebujeme plán, ktorý vysvetlí ľudské práva vo veku AI?

Áno, určite áno.

Museli by ste byť takmer zamknutí v jaskyni a bez prístupu na internet, aby ste nevedeli, že AI už a čoraz viac zasahuje do našich práv. Nedávna éra AI bola spočiatku vnímaná ako bytia AI pre dobro, čo znamená, že by sme mohli použiť AI na zlepšenie ľudstva. Na pätách AI pre dobro prišlo poznanie, že sme aj my ponorení AI pre zlé. To zahŕňa umelú inteligenciu, ktorá je navrhnutá alebo upravená tak, aby bola diskriminačná a robí výpočtové rozhodnutia, ktoré sú nenáležité. Niekedy je AI postavená týmto spôsobom, zatiaľ čo v iných prípadoch sa točí do tohto nevhodného územia.

Moje pokračujúce a rozsiahle pokrytie a analýzu zákona o umelej inteligencii, etiky AI a ďalších kľúčových technologických a spoločenských trendov AI nájdete na odkaz tu a odkaz tu, Len aby sme vymenovali niekoľko.

Rozbalenie listiny práv AI

Predtým som diskutoval o Listine práv AI a tu urobím rýchlu rekapituláciu.

Okrem toho, ak by ste chceli poznať moje hĺbkové klady a zápory nedávno vydanej listiny práv AI, podrobne som svoju analýzu opísal v príspevku na právnik, Pozri odkaz tu, právnik je pozoruhodná online stránka s právnymi správami a komentármi, ktorá je všeobecne známa ako ocenená právnická spravodajská služba poháňaná globálnym tímom novinárov, redaktorov, komentátorov, korešpondentov a vývojárov obsahu a má ústredie na University of Pittsburgh School of Law v Pittsburghu, kde sa začala pred viac ako 25 rokmi. Sláva vynikajúcemu a pracovitému tímu v právnik.

V listine práv AI je päť základných kategórií:

  • Bezpečné a efektívne systémy
  • Algoritmická diskriminačná ochrana
  • Ochrana osobných údajov
  • Upozornenie a vysvetlenie
  • Ľudské alternatívy, ohľaduplnosť a núdza

Všimnite si, že som ich nečísloval od jednej do päť, pretože by to mohlo znamenať, že sú v určitom poradí alebo že jedno z práv je zdanlivo dôležitejšie ako druhé. Budeme predpokladať, že každý z nich má svoje vlastné zásluhy. Všetci sú v istom zmysle rovnako záslužní.

Ako stručnú informáciu o tom, z čoho každý pozostáva, uvádzame výňatok z oficiálnej bielej knihy:

  • Bezpečné a efektívne systémy: „Mali by ste byť chránení pred nebezpečnými alebo neúčinnými systémami. Automatizované systémy by sa mali vyvíjať na základe konzultácií s rôznymi komunitami, zainteresovanými stranami a odborníkmi v danej oblasti, aby sa identifikovali obavy, riziká a potenciálne vplyvy systému.
  • Algoritmická diskriminačná ochrana: „Nemali by ste čeliť diskriminácii zo strany algoritmov a systémy by sa mali používať a navrhovať spravodlivým spôsobom. Algoritmická diskriminácia nastáva, keď automatizované systémy prispievajú k neodôvodnenému rozdielnemu zaobchádzaniu alebo znevýhodňujú ľudí na základe ich rasy, farby pleti, etnickej príslušnosti, pohlavia (vrátane tehotenstva, pôrodu a súvisiacich zdravotných stavov, rodovej identity, intersexuálneho statusu a sexuálnej orientácie), náboženstva, veku. , národný pôvod, zdravotné postihnutie, status veterána, genetická informácia alebo akákoľvek iná klasifikácia chránená zákonom.“
  • Ochrana osobných údajov: „Mali by ste byť chránení pred zneužitím údajov prostredníctvom vstavaných ochrán a mali by ste mať orgán nad tým, ako sa údaje o vás používajú. Mali by ste byť chránení pred narušením súkromia prostredníctvom návrhov, ktoré zabezpečia, že takáto ochrana bude štandardne zahrnutá, vrátane zabezpečenia toho, že zhromažďovanie údajov bude v súlade s primeranými očakávaniami a že sa budú zhromažďovať iba údaje nevyhnutne potrebné pre konkrétny kontext.“
  • Upozornenie a vysvetlenie: „Mali by ste vedieť, že sa používa automatizovaný systém, a pochopiť, ako a prečo prispieva k výsledkom, ktoré vás ovplyvňujú. Návrhári, vývojári a nasadzovatelia automatizovaných systémov by mali poskytnúť všeobecne dostupnú dokumentáciu v jednoduchom jazyku vrátane jasného opisu celkového fungovania systému a úlohy, ktorú automatizácia zohráva, upozorniť na to, že takéto systémy sa používajú, jednotlivca alebo organizáciu zodpovednú za systém a vysvetlenie výsledky, ktoré sú jasné, včasné a dostupné.“
  • Ľudské alternatívy, ohľaduplnosť a ochrana: „V prípade potreby by ste mali mať možnosť odhlásiť sa a mať prístup k osobe, ktorá dokáže rýchlo zvážiť a vyriešiť problémy, s ktorými sa stretnete. V prípade potreby by ste mali mať možnosť odhlásiť sa z automatizovaných systémov v prospech ľudskej alternatívy.“

Celkovo ide o aspekty ľudských práv, ktoré sa už nejaký čas prelínajú v kontexte etiky AI a zákona o umelej inteligencii, pozri moje pokrytie, ako napr. odkaz tu. Biela kniha zdanlivo magicky nevyťahuje zajaca z klobúka, pokiaľ ide o nejaké novoobjavené alebo objavené právo, ktoré doteraz nebolo objasnené v kontexte éry AI.

To je v poriadku.

Mohli by ste tvrdiť, že ich zostavenie do jednej úhľadne zabalenej a formalizovanej zbierky poskytuje životne dôležitú službu. Navyše tým, že je pomazaný ako uznávaný Listina práv AI, tým sa celá vec ešte otvorene a obratne dostáva do povedomia verejnej sféry. Spája existujúcu plejádu nesúrodých diskusií do jedinečného súboru, ktorý je teraz možné vytrubovať a sprostredkovať všetkým zainteresovaným stranám.

Dovoľte mi ponúknuť tento zoznam priaznivých reakcií na ohlásenú listinu práv AI:

  • Poskytuje základnú kompiláciu základných princípov
  • Slúži ako plán alebo základ, na ktorom sa dá stavať
  • Pôsobí ako vokalizovaná výzva na akciu
  • Podnecuje záujem a ukazuje, že ide o vážne úvahy
  • Spája množstvo rôznorodých diskusií
  • Podnecuje a prispieva k snahám o etické prijatie AI
  • Nepochybne prispeje k zavedeniu zákonov AI
  • ostatné

Musíme zvážiť aj menej priaznivé reakcie, berúc do úvahy, že je potrebné urobiť oveľa viac práce a že toto je len začiatok dlhej cesty na namáhavej ceste riadenia AI.

Trochu tvrdá alebo povedzme konštruktívna kritika AI Listiny práv ako taká zahŕňa:

  • Nie je právne vymožiteľné a úplne nezáväzné
  • Iba poradné a nepovažuje sa za vládnu politiku
  • Menej obsiahle v porovnaní s inými publikovanými prácami
  • Primárne pozostáva zo širokých pojmov a chýbajú im detaily implementácie
  • Bude náročné premeniť sa na reálne životaschopné praktické zákony
  • Zdanlivo mlčí o hroziacej otázke možného zákazu AI v niektorých kontextoch
  • Okrajovo uznáva výhody používania AI, ktorá je dobre navrhnutá
  • ostatné

Snáď najvýraznejší štipľavý komentár sa sústredil na skutočnosť, že táto listina práv AI nie je právne vymožiteľná, a preto nemá význam, pokiaľ ide o zriaďovanie jasných mantinelov. Niektorí povedali, že hoci je biely papier užitočný a povzbudzujúci, rozhodne mu chýbajú zuby. Pýtajú sa, čo môže vzísť z takzvaného súboru šikovných pravidiel s dutými zubami.

O chvíľu sa budem venovať týmto štipľavým poznámkam.

Medzitým biela kniha hojne uvádza obmedzenia toho, čo táto listina práv AI zahŕňa:

  • „Návrh listiny práv AI je nezáväzný a nepredstavuje politiku vlády USA. Nenahrádza, neupravuje ani neriadi výklad akéhokoľvek existujúceho štatútu, nariadenia, politiky alebo medzinárodného nástroja. Nepredstavuje záväzné usmernenie pre verejnosť alebo federálne orgány, a preto nevyžaduje dodržiavanie zásad opísaných v tomto dokumente. Rovnako nie je rozhodujúce, aká bude pozícia vlády USA v akýchkoľvek medzinárodných rokovaniach. Prijatie týchto princípov nemusí spĺňať požiadavky existujúcich zákonov, nariadení, politík alebo medzinárodných nástrojov alebo požiadavky federálnych orgánov, ktoré ich presadzujú. Tieto princípy nie sú určené na zákaz alebo obmedzenie akejkoľvek zákonnej činnosti vládnej agentúry, vrátane činností presadzovania práva, národnej bezpečnosti alebo spravodajských činností, a ani nie sú nimi“ (podľa bielej knihy).

Pre tých, ktorí rýchlo podkopali AI Listinu práv ako právne nezáväznú, urobme malý myšlienkový experiment na tomto štipľavom obvinení. Predpokladajme, že biela kniha bola zverejnená a mala plnú platnosť zákona. Dovolím si tvrdiť, že výsledok by bol do istej miery kataklizmatický, aspoň v miere právnych a spoločenských ohlasov na vyhlásenie.

Zákonodarcovia by boli v zbrani, že toto úsilie nevykonalo normatívne procesy a právne postupy pri zostavovaní takýchto zákonov. Podniky by boli právom nahnevané, keby sa objavili nové zákony bez dostatočnej informovanosti a informovanosti o tom, čo tieto zákony sú. Nasledovalo by všemožné zdesenie a rozhorčenie.

Nie je to dobrý spôsob, ako sa prikláňať k upevňovaniu práv ľudstva v ére AI.

Pripomeňme si, že som túto diskusiu začal skôr tým, že som poukázal na hodnotu a vitalitu plánov.

Predstavte si, že niekto preskočil krok tvorby plánov a okamžite sa pustil do stavby vášho vysnívaného domu. Ako by podľa vás vyzeral dom? Zdá sa, že stávka na to, že dom by nezodpovedal tomu, čo ste mali vo svojej mysli. Výsledná usadlosť môže byť úplným neporiadkom.

Podstatou je, že potrebujeme plány a teraz jeden máme, aby sme mohli pokračovať v zisťovaní rozumných zákonov AI a posilňovaní etického prijímania AI.

Chcel by som sa preto zaoberať spôsobmi, ako možno tento návrh listiny práv AI premeniť na dom. Ako využijeme plán? Aké sú vhodné ďalšie kroky? Môže stačiť táto modrotlač, alebo potrebuje viac mäsa na kostiach?

Predtým, než sa vrhneme na tieto závažné záležitosti, rád by som sa najprv uistil, že sme všetci na rovnakej stránke o povahe AI ​​a o tom, z čoho pozostáva dnešný stav.

Rekord v dnešnej AI

Chcel by som urobiť mimoriadne dôrazné vyhlásenie.

Ste pripravení?

Dnes neexistuje žiadna umelá inteligencia, ktorá by bola vnímavá.

Toto my nemáme. Nevieme, či bude vnímajúca AI možná. Nikto nemôže vhodne predpovedať, či dosiahneme vnímajúcu AI, ani či sa vedomá AI nejakým zázrakom spontánne objaví vo forme výpočtovej kognitívnej supernovy (zvyčajne označovanej ako singularita, pozri moje pokrytie na odkaz tu).

Typ AI, na ktorý sa zameriavam, pozostáva z necitlivej AI, ktorú máme dnes. Ak by sme chceli divoko špekulovať o vnímajúcej AI, táto diskusia by sa mohla uberať radikálne iným smerom. Vnímajúca AI by mala mať ľudské kvality. Mali by ste zvážiť, že vnímajúca AI je kognitívnym ekvivalentom človeka. Navyše, keďže niektorí špekulujú, že by sme mohli mať superinteligentnú AI, je možné, že takáto AI by mohla byť inteligentnejšia ako ľudia (pre môj prieskum superinteligentnej AI ako možnosti pozri pokrytie tu).

Dôrazne by som odporučil, aby sme veci držali pri zemi a zvážili dnešnú výpočtovú necitlivú AI.

Uvedomte si, že dnešná AI nie je schopná „myslieť“ akýmkoľvek spôsobom na rovnakej úrovni ako ľudské myslenie. Keď komunikujete s Alexou alebo Siri, konverzačné schopnosti sa môžu zdať podobné ľudským schopnostiam, ale realita je taká, že sú výpočtové a chýba im ľudské poznanie. Najnovšia éra AI vo veľkej miere využíva strojové učenie (ML) a hlboké učenie (DL), ktoré využívajú porovnávanie výpočtových vzorov. To viedlo k systémom AI, ktoré vyzerajú ako ľudia. Medzitým dnes neexistuje žiadna umelá inteligencia, ktorá by mala zdanie zdravého rozumu, ani žiadny z kognitívnych zázrakov robustného ľudského myslenia.

Buďte veľmi opatrní pri antropomorfizácii dnešnej AI.

ML/DL je forma porovnávania výpočtových vzorov. Zvyčajný prístup je taký, že zhromažďujete údaje o úlohe rozhodovania. Dáta vložíte do počítačových modelov ML/DL. Tieto modely sa snažia nájsť matematické vzorce. Po nájdení takýchto vzorov, ak sa nájdu, systém AI potom použije tieto vzory pri stretnutí s novými údajmi. Po predložení nových údajov sa na vyvodenie aktuálneho rozhodnutia použijú vzory založené na „starých“ alebo historických údajoch.

Myslím, že viete hádať, kam to smeruje. Ak ľudia, ktorí sa rozhodovali podľa vzoru, začlenili do seba nepriaznivé predsudky, je pravdepodobné, že údaje to odrážajú jemným, ale významným spôsobom. Zhoda výpočtových vzorov Machine Learning alebo Deep Learning sa jednoducho pokúsi zodpovedajúcim spôsobom matematicky napodobniť údaje. Neexistuje žiadne zdanie zdravého rozumu alebo iných vnímavých aspektov modelovania vytvoreného AI ako takého.

Okrem toho si vývojári AI nemusia uvedomiť, čo sa deje. Tajomná matematika v ML/DL môže sťažiť odhalenie teraz skrytých predsudkov. Oprávnene by ste dúfali a očakávali, že vývojári AI budú testovať potenciálne skryté predsudky, hoci je to zložitejšie, ako by sa mohlo zdať. Existuje solídna šanca, že aj pri relatívne rozsiahlom testovaní budú v modeloch porovnávania vzorov ML/DL stále zakomponované odchýlky.

Do istej miery by ste mohli použiť známe alebo neslávne známe príslovie o odpadkoch do odpadu. Ide o to, že je to skôr podobné zaujatostiam – in, ktoré sa zákerne naplnia, keď sa predsudky ponoria do AI. Algoritmus rozhodovania (ADM) AI je axiomaticky zaťažený nerovnosťami.

Nie dobré.

To všetko má mimoriadne významné dôsledky na etiku AI a ponúka praktické okno do získaných skúseností (ešte predtým, ako sa stanú všetky lekcie), pokiaľ ide o uzákonenie AI.

Okrem používania etických zásad AI vo všeobecnosti existuje zodpovedajúca otázka, či by sme mali mať zákony upravujúce rôzne spôsoby použitia AI. Na federálnej, štátnej a miestnej úrovni sa hromadia nové zákony, ktoré sa týkajú rozsahu a povahy toho, ako by mala byť navrhnutá AI. Snaha vypracovať a prijať takéto zákony je postupná. Etika AI slúži prinajmenšom ako zvažovaná prestávka a takmer určite bude do určitej miery priamo začlenená do týchto nových zákonov.

Uvedomte si, že niektorí neústupne tvrdia, že nepotrebujeme nové zákony, ktoré pokrývajú AI, a že naše existujúce zákony sú dostatočné. Varujú pred tým, že ak prijmeme niektoré z týchto zákonov AI, zabijeme zlatú hus tým, že potlačíme pokroky v AI, ktoré ponúkajú obrovské spoločenské výhody.

V predchádzajúcich stĺpcoch som popísal rôzne národné a medzinárodné snahy o vytvorenie a prijatie zákonov regulujúcich AI, pozri odkaz tu, napríklad. Zaoberal som sa aj rôznymi princípmi a usmerneniami etiky umelej inteligencie, ktoré identifikovali a prijali rôzne národy, vrátane napríklad úsilia Organizácie Spojených národov, ako je súbor etiky umelej inteligencie UNESCO, ktorý prijalo takmer 200 krajín, pozri odkaz tu.

Tu je užitočný základný zoznam etických kritérií alebo charakteristík AI systémov AI, ktoré som predtým podrobne preskúmal:

  • Priehľadnosť
  • Spravodlivosť a spravodlivosť
  • Neškodnosť
  • zodpovednosť
  • súkromia
  • dobročinnosť
  • Sloboda a autonómia
  • Verte
  • Udržateľnosť
  • dôstojnosť
  • Solidarita

Predpokladá sa, že tieto princípy etiky AI budú vážne využívať vývojári AI spolu s tými, ktorí riadia úsilie o vývoj AI, a dokonca aj tými, ktorí v konečnom dôsledku nasadzujú a vykonávajú údržbu systémov AI.

Všetky zainteresované strany počas celého životného cyklu vývoja a používania AI sa zohľadňujú v rámci dodržiavania zavedených noriem Etickej umelej inteligencie. Toto je dôležitý prvok, pretože zvyčajný predpoklad je, že „iba kóderi“ alebo tí, ktorí programujú AI, podliehajú dodržiavaniu etických pojmov AI. Ako už bolo zdôraznené vyššie, na vymyslenie a nasadenie AI je potrebná dedina, v ktorej musí byť celá dedina oboznámená a dodržiavať etické predpisy AI.

Teraz, keď som položil užitočný základ, sme pripravení ponoriť sa ďalej do Listiny práv AI.

Štyri základné spôsoby implementácie listiny práv AI

Niekto vám podá plán a povie vám, aby ste sa pustili do práce.

Čo budete robiť?

V prípade listiny práv AI ako plánu zvážte tieto štyri základné kroky vpred:

  • Slúži ako vstup pri formulovaní zákonov AI: Použite plán na pomoc pri formulovaní zákonov o AI, dúfajme, že to urobíte na zosúladenom základe na federálnej, štátnej a miestnej úrovni (možno pomôžete aj medzinárodnému právnemu úsiliu o AI).
  • Pomoc pri rozširovaní etiky AI: Použite plán na podporu formulácií etiky umelej inteligencie (niekedy označovaných ako „mäkké zákony“ v porovnaní s právne záväznými „tvrdými zákonmi“), aby ste tak inšpirovali a nasmerovali podniky, jednotlivcov, vládne subjekty a iné zložky k lepšiemu a konzistentnejšiemu etickému výsledky AI.
  • Vývojové aktivity Shape AI: Použite plán na podnietenie tvorby metodológií vývoja AI a aspektov školenia, aby ste sa pokúsili primäť vývojárov AI a tých, ktorí umelú inteligenciu využívajú alebo ju využívajú, aby si lepšie uvedomovali, ako navrhovať AI v súlade so žiaducimi pravidlami etiky AI a v očakávaní. o pripravovaných zákonoch o AI.
  • Motivujte príchod AI na pomoc pri ovládaní AI: Použite plán na vynájdenie AI, ktorá sa použije na vyskúšanie a bude slúžiť ako kontrola a vyváženie proti inej umelej inteligencii, ktorá by mohla odbočiť do neznámeho územia. Toto je jeden z tých makroskopických uhlov pohľadu, pri ktorom môžeme použiť práve to, čo považujeme za zdanlivo znepokojujúce, aby nám tiež (ironicky, dalo by sa povedať) pomohlo chrániť nás.

O každom z vyššie uvedených štyroch krokov som diskutoval vo svojich stĺpcoch.

V tejto diskusii by som sa chcel zamerať na štvrtý uvedený krok, konkrétne na to, že Listina práv AI môže slúžiť ako motivátor k nástupu AI na pomoc pri kontrole AI. Toto je trochu šokujúci alebo prekvapivý krok pre mnohých, ktorí sa ešte úplne nedostali do tejto sféry napredovania AI.

Dovoľte mi to upresniť.

Jednoduchá analógia by mala stačiť. Všetci sme v dnešnej dobe zvyknutí na porušovanie kybernetickej bezpečnosti a vlámanie hackerov. Takmer každý deň počúvame o nejakej najnovšej medzere v našich počítačoch alebo sme ňou ovplyvnení, čo umožní nekalým zločincom zmocniť sa našich údajov alebo umiestniť na naše notebooky podlý kúsok ransomvéru.

Jedným zo spôsobov boja proti týmto opovrhnutiahodným pokusom je použitie špecializovaného softvéru, ktorý sa pokúša zabrániť týmto vlámaniu. Takmer určite máte doma alebo v práci na svojom počítači nejaký antivírusový softvér. Pravdepodobne je niečo podobné na vašom smartfóne, či už si uvedomujete, že tam je alebo nie.

Ide mi o to, že niekedy potrebujete bojovať s ohňom ohňom (pozrite si moje informácie o tom, ako napr odkaz tu a odkaz tu).

V prípade AI, ktorá pristane do zakázanej oblasti AI pre zlé, môžeme sa snažiť použiť AI pre dobro ktorý zápasí s tým zlomyseľným AI pre zlé. Toto samozrejme nie je zázračný liek. Ako viete, medzi zločincami, ktorí sa snažia preniknúť do našich počítačov, a pokrokmi, ktoré sa dosiahli v oblasti kybernetickej bezpečnosti, prebieha neustály gambit mačiek a myší. Je to takmer nekonečná hra.

Môžeme použiť AI, aby sme sa pokúsili vysporiadať s AI, ktorá sa vydala zakázanou cestou. Pomôže to. Nebude to obzvlášť strieborná guľka, pretože nepriaznivá AI, na ktorú sa zameriavate, bude takmer určite navrhnutá tak, aby sa vyhlo takejto ochrane. Toto bude prebiehať boj medzi umelou inteligenciou a myšou v porovnaní s umelou inteligenciou.

V každom prípade AI, ktorú používame na ochranu, poskytne určitú ochranu pred zlou AI. Nepochybne teda musíme vymyslieť AI, ktorá nás dokáže ochrániť alebo ochrániť. A tiež by sme sa mali snažiť vytvoriť ochrannú AI, aby sa prispôsobila tomu, ako sa zlá AI prispôsobí. Bude tu zúrivé zdanie bleskovej rýchlosti mačky a myši.

Nie každému sa páči toto rozšírenie úlohy AI.

Tí, ktorí už vnímajú AI ako homogénny amorfný konglomerát, by pri tomto predstieranom gambite AI verzus AI dostali husiu kožu a nočné mory. Ak sa pokúsime postaviť oheň proti ohňu, možno len vytvárame ešte väčší oheň. Umelá inteligencia sa stane obrovským ohňom, ktorý už nebudeme ovládať a rozhodneme sa zotročiť ľudstvo alebo nás vymazať z planéty. Pokiaľ ide o diskusiu o AI ako o existenčnom riziku, zvyčajne sa domnievame, že všetky AI sa spoja, pozri moju diskusiu o týchto problémoch na odkaz tu. Viete, bolo nám povedané, že každý kúsok AI sa chopí AI svojich bratov a stane sa jednou veľkou jednotnou rodinou vládcu.

To je strašný a rozhodne znepokojujúci scenár vnímajúcej AI ako bezproblémovej mafie typu všetko za jedného a jeden za všetkých.

Aj keď ste vítaní, ak robíte takéto dohady o tom, že sa to jedného dňa môže stať, uisťujem vás, že umelá inteligencia, ktorú dnes máme, pozostáva z nákladných áut nesúrodých programov umelej inteligencie, ktoré nemajú žiadny konkrétny spôsob, ako sa navzájom sprisahať.

Napriek tomu som si istý, že tí, ktorí vrúcne veria konšpiračným teóriám AI, budú trvať na tom, že som to povedal úmyselne, aby som zakryl pravdu. Aha! Možno ma vypláca dnešná AI, ktorá už plánuje veľké prevzatie AI (áno, pane, budem sa kúpať v bohatstve, keď budú vládcovia AI vládnuť). Alebo, a ja rozhodne neuprednostňujem tento iný uhol, možno si slepo neuvedomujem, ako AI tajne kuje za našimi chrbtom. Myslím, že budeme musieť počkať a uvidíme, či som súčasťou AI prevratu alebo som AI úbohá patsy (au, to bolí).

Vráťme sa k pozemským úvahám a stručne preskúmame, ako možno súčasnú AI použiť na pomoc pri implementácii Listiny práv AI. Budem to pohodlne a súhrnne označovať ako Dobrá AI.

Použijeme päť základných kameňov obsiahnutých v listine práv AI:

  • Dobrá AI na propagáciu Bezpečné a efektívne systémy: Kedykoľvek podliehate systému AI alebo ho používate, dobrá AI sa snaží zistiť, či používaná AI nie je bezpečná alebo neúčinná. Po takejto detekcii vás môže dobrá AI upozorniť alebo podniknúť iné kroky vrátane zablokovania zlej AI.
  • Dobrá AI na poskytovanie Algoritmická diskriminačná ochrana: Pri používaní systému AI, ktorý môže obsahovať diskriminačné algoritmy, Dobrá AI pokúša sa zistiť, či pre vás existuje nedostatočná ochrana, a snaží sa zistiť, či v používanej AI skutočne existujú neprimerané zaujatosti. Dobrá AI vás môže informovať a tiež potenciálne automaticky nahlásiť inú AI rôznym orgánom, ako to môžu stanovovať zákony o AI a zákonné požiadavky.
  • Dobrá AI na zachovanie Ochrana osobných údajov: Tento typ dobrej AI sa vás snaží chrániť pred narušením súkromia údajov. Keď sa iná AI snaží požiadať o údaje, ktoré možno skutočne nepotrebujete, dobrá AI vás upozorní na prekročenie. Dobrá AI môže tiež potenciálne zamaskovať vaše údaje spôsobom, ktorý po pripojení k inej AI stále zachová vaše práva na ochranu osobných údajov. Atď.
  • Dobrá AI na založenie Upozornenie a vysvetlenie: Všetci sa pravdepodobne stretneme so systémami AI, ktorým veľmi chýba poskytovanie správnych a primeraných upozornení a ktoré bohužiaľ nedokážu poskytnúť primerané vysvetlenie svojich činov. Dobrá AI sa môže pokúsiť interpretovať alebo vypočuť inú AI, aby potenciálne identifikovala oznámenia a vysvetlenia, ktoré mali byť poskytnuté. Aj keď to v danom prípade nie je možné urobiť, dobrá AI vás aspoň upozorní na zlyhania inej AI a prípadne nahlási AI určeným orgánom na základe stanovených zákonov a právnych požiadaviek o AI.
  • Dobrá AI za ponuku Ľudské alternatívy, ohľaduplnosť a núdza: Predpokladajme, že používate systém AI a AI zdanlivo neplní danú úlohu. Možno si neuvedomujete, že veci sa kazia, alebo môžete byť trochu ostražití a neistí, čo so situáciou robiť. V takom prípade by Dobrá AI potichu skúmala, čo robí iná AI, a mohla by vás upozorniť na životne dôležité obavy týkajúce sa tejto AI. Potom budete vyzvaní, aby ste požiadali o ľudskú alternatívu k AI (alebo by tak mohla urobiť dobrá AI vo vašom mene).

Aby sme lepšie pochopili, ako tento druh Dobrá AI sa dá rozvíjať a využívať, pozri moju populárnu a vysoko hodnotenú knihu o AI (je mi cťou povedať, že bola označená ako „Top Ten“) o tom, čo som vo všeobecnosti označoval ako anjelov strážnych AI, pozri odkaz tu.

záver

Viem, čo si myslíš. Ak máme dobrú AI, ktorá je navrhnutá tak, aby nás chránila, predpokladajme, že dobrá AI sa pokazí a stane sa zlou AI. Slávna alebo neslávne známa latinská fráza sa zdá byť plne relevantná pre túto možnosť: Quis custodiet ipsos custodes?

Fráza sa pripisuje rímskemu básnikovi Juvenalovi a nachádza sa v jeho diele s názvom satiry, a dá sa voľne preložiť ako kto bude strážiť alebo strážiť samotných strážcov. Veľa filmov a televíznych relácií ako napr star Trek využili túto linku opakovane.

Je to určite preto, že je to vynikajúci bod.

Iste, všetky prijaté zákony o AI budú musieť zahŕňať zlú AI aj dobrú AI, ktorá sa pokazí. Preto bude kľúčové napísať rozumné a komplexné zákony o AI. Zákonodarcovia, ktorí sa len pokúšajú hodiť náhodný zákon na stenu a dúfajú, že sa to bude držať s ohľadom na zákony AI, sa ocitnú v úplnom míňaní cieľa.

To nepotrebujeme.

Nemáme ani čas, ani nemôžeme znášať spoločenské náklady, aby sme sa vysporiadali s neadekvátne navrhnutými zákonmi o AI. Poukázal som na to, že, bohužiaľ, občas sme svedkami nových zákonov súvisiacich s AI, ktoré sú zle zostavené a preplnené všetkými druhmi právnych neduhov, pozri napríklad moju analýzu zákona o audite AI v New Yorku (NYC) na adrese odkaz tu.

Uistime sa, že vhodne používame návrh zákona o právach AI, ktorý máme v súvislosti s AI teraz v rukách. Ak budeme ignorovať plán, prehrali sme tým, že sme zintenzívnili našu hru. Ak nesprávne implementujeme plán, hanbíme sa za to, že sme si uzurpovali užitočný základ.

Vážený rímsky básnik Juvenal povedal niečo iné, čo môžeme v tejto situácii využiť: Anima sana in corpore sano.

Vo všeobecnosti sa to premieta do tvrdenia, že by bolo rozumné mať zdravú alebo zdravú myseľ a zdravé alebo zdravé telo. To nám podľa Juvenala umožňuje vydržať akúkoľvek drinu a bude to určite jediná cesta k životu v mieri alebo cnosti.

Je čas, aby sme použili zdravú myseľ a zdravé telo, aby sme sa uistili, že zaisťujeme, že ľudstvo bude mať naše ľudské práva zachované a pevne upevnené vo vznikajúcom svete všadeprítomnej a občas nepríčetnej AI. Toto je dobrá rada od Rimanov, ktorú by sme mali dodržiavať v dnešnom zhone uprostred epochy umelej inteligencie a budúcnosti rozhodne naplnenej dobrou aj zlou AI.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- listina práv-vrátane-a-prekvapivo-použitím-ai-úplne/