Implantácia právneho zdôvodnenia do AI by mohla inteligentne dosiahnuť zosúladenie ľudskej hodnoty, hovorí etika AI a zákon AI

V dnešnom stĺpci spojím nespočetné množstvo zdanlivo nesúrodých tém súvisiacich s AI do jednej pekne tkanej látky.

Ste pripravení?

Predstavte si, že používate aplikáciu poháňanú AI, ktorá vám pomáha pri vykonávaní nejakej významnej úlohy. Možno ide o finančnú záležitosť alebo môže súvisieť so zdravím. Podstatou je, že ste závislí od AI, aby ste urobili správnu vec a vykonali sa predpokladaným bezpečným a zdravým spôsobom.

Predpokladajme, že sa AI dostane na neetické územie.

Možno si neuvedomujete, že to robí AI.

Umelá inteligencia by sa napríklad mohla spoliehať na potenciálne skryté diskriminačné faktory, ako je rasa alebo pohlavie, aj keď možno nemáte žiadne životaschopné prostriedky na rozpoznanie nevhodného použitia. Tu ste, úplne sami, za kratší koniec pomocou AI, ktorá bola buď vymyslená od začiatku problematickým spôsobom, alebo sa jej podarilo nasmerovať do klamlivého a hraničného etického ohrozenia (viac poviem o toto o chvíľu).

Čo môžete urobiť alebo čo sa dá urobiť s AI, ktorá sa rozhodla ísť neetickou cestou?

Okrem toho, že som sa vopred pokúsil skonštruovať AI tak, aby nerobila tento druh zákernej akcie, predtým som tiež podrobne uviedol, že stúpa záujem o zabudovanie Kontrola etiky AI komponent do rozrastajúceho sa bahna inak divokého západu systémy umelej inteligencie, ktoré sa dajú bez problémov vrhnúť na trh. Myšlienka je taká, že aby sme sa pokúsili zabrániť tomu, aby sa aplikácia s umelou inteligenciou dostala mimo etických rozmerov, mohli by sme použiť ďalšiu AI na kontrolu a vyváženie. Táto pridaná AI sa môže nachádzať mimo cieľovej aplikácie AI alebo môže ísť o súčasť zabudovanú alebo implantovanú priamo do AI, ktorú chceme znova skontrolovať.

Ako som už uviedol, viď odkaz tu: „Nedávno vznikajúci trend spočíva v snahe postaviť do AI etické mantinely, ktoré zachytia, keď zvyšok systému AI začne prekračovať vopred stanovené etické hranice. V istom zmysle je cieľom použiť samotnú AI, aby sa eticky nepokazila. Dalo by sa povedať, že naším cieľom je, aby sa AI vyliečila sama“ (Lance Eliot, „Vytváranie etickej AI, ktorá monitoruje neetickú AI a snaží sa odradiť zlú AI od konania“, Forbes, 28. marca 2022).

Tiež by vás mohla relevantne zaujímať moja kniha Ochranné roboty AI, niekedy označovaný ako anjeli strážni, ktorý zastrešuje technické základy tejto najmodernejšej AI-in-AI vstavaných dvojitých dám, viď. odkaz tu.

Zrátané a podčiarknuté je, že vaša slanina môže byť našťastie zachránená použitím vstavaného prvku etického merania s dvojitou kontrolou AI, ktorý bol navrhnutý a implantovaný do aplikácie AI, ktorú používate. Bude to však dostatočný strážca na to, aby sa skutočne ubezpečil, že vás AI úplne neomrzí a nepustíte sa ešte do škodlivej pôdy?

Vidíte, aplikácia AI by mohla zdanlivo fungovať nezákonný pôsobí.

Jedna vec je mať AI, ktorá ide do šedej zóny toho, čo považujeme za etické alebo neetické správanie. Rovnako znepokojujúce správanie a pravdepodobne zhoršujúce sa obavy majú za následok AI, ktorá len tak preskočí žraloka a zostúpi do nekvalitnej temnoty priamo nezákonných činov.

Nezákonná AI je zlá. Povoliť nezákonnú AI bez dozoru je zlé. Niektorí právnici sa otvorene obávajú, že nástup a všadeprítomnosť AI postupne a desivo podkopajú naše zdanie právneho štátupozri moju analýzu na odkaz tu.

Počkajte chvíľu, možno si hovoríte.

Môžete byť v pokušení myslieť si, že vývojári AI áno nikdy naprogramovať svoju AI tak, aby bola v rozpore so zákonom. Nepredstaviteľné. Robili by to len zlí darebáci (ktorí, mimochodom, majte na pamäti, že existujú aj takí, ktorí zámerne vymýšľajú a používajú AI na zlé účely, čo je čoraz väčšia oblasť záujmu zločincov a iných, ktorí chcú používať AI na hanebné činnosti).

Ospravedlňujeme sa, ale je to zbožné želanie predpokladať, že všetci vývojári umelej inteligencie, ktorí nie sú zlí, sa budú prísne uistiť, že ich umelá inteligencia plne dodržiava zákony. Je možné, že AI sa sama prispôsobí a zablúdi do nezákonnej činnosti. Samozrejme, existuje aj možnosť, že vývojári AI buď chceli, aby AI konala nezákonne, alebo že si neboli vedomí toho, čo predstavovalo nezákonné verzus právne činy, keď vytvárali AI (áno, je to celkom možné, konkrétne, že špičkový tím umelej inteligencie môže ignorovať právne podvody svojej AI, čo nie je ospravedlniteľné a napriek tomu sa to deje s alarmujúcou frekvenciou).

Čo sa s tým dá robiť?

Opäť platí, že okrem snahy zabezpečiť, aby umelá inteligencia bola železná a legálna, ďalší prístup k získaniu pary zahŕňa vloženie alebo implantáciu komponentu AI, ktorý vykonáva legálnu dvojitú kontrolu pre zvyšok aplikácie AI. Táto pridaná AI, ktorá sedí potichu a často neohlásene, pozoruje zvyšok AI, aby sa pokúsila rozlíšiť, či sa AI stane nečestnou alebo aspoň prekročí limity zákonných alebo regulačných obmedzení.

Teraz máme dva druhy dvojitej kontroly AI, ktoré sú potenciálne vložené do aplikácie AI:

  • Dvojitá kontrola etiky AI: Tento komponent alebo doplnok AI v reálnom čase posudzuje zvyšok AI z hľadiska etického a neetického správania, ktoré AI prejavuje.
  • Dvojitá kontrola AI Legal: Tento komponent alebo doplnok AI v reálnom čase posudzuje zvyšok AI z hľadiska ubezpečenia, že zostane v rámci zákonných základných kameňov, a z hľadiska zachytenia vznikajúcich nezákonných činností AI.

Na objasnenie, ide o relatívne nové koncepcie a AI, ktorú dnes používate, môže byť v ktorejkoľvek z týchto súčasných podmienok:

  • AI, ktorá neobsahuje žiadne dvojité kontrolné prvky
  • AI, ktorá obsahuje dvojitú kontrolu etiky AI, ale žiadne ďalšie dvojité kontroly
  • AI, ktorá obsahuje dvojitú kontrolu AI Legal, ale žiadne ďalšie dvojité kontroly
  • AI, ktorá má dvojitú kontrolu etiky AI aj právnu kontrolu AI
  • ostatné

Existuje niekoľko výrazne zložitých aspektov toho, že dvojitá kontrola AI Ethics a dvojitá kontrola AI Legal fungujú v aplikácii AI vedľa seba ako spriaznený brat a sestra. Toto je druh dualizmu, ktorý môže byť ťažšie koordinovať, ako by ste si mohli myslieť (myslím, že všetci vieme, že bratia a sestry môžu mať tie najužšie putá, hoci môžu z času na čas bojovať ako kuriatka a rázne sa postaviť proti názory).

Dlho som diskutoval o tomto type namáhavého dualizmus: „V AI pre sociálne dobro sa vyskytuje zanedbávaný dualizmus, ktorý zahŕňa nedostatok zahrnutia úlohy umelej morálnej agentúry a umelého právneho uvažovania v pokročilých systémoch AI. Úsilie výskumníkov AI a vývojárov AI malo tendenciu zameriavať sa na to, ako vytvoriť a vložiť umelé morálne agenty, aby usmerňovali morálne rozhodovanie, keď systém AI funguje v teréne, ale nezamerali sa tiež na a nespájali použitie umelých schopností právneho uvažovania. , ktorý je rovnako potrebný pre robustné morálne a právne výsledky“ (Lance Eliot, „Zanedbaný dualizmus umelej morálnej agentúry a umelé právne uvažovanie v AI pre sociálne dobro“, Výročná konferencia Harvard University CRCS 2020, Harvardské centrum pre výskum a výpočtovú spoločnosť)

Ak by ste sa chceli zamyslieť nad tým, prečo by mohlo existovať napätie medzi dvojitým kontrolórom etiky AI a právnym kontrolórom AI, možno by ste našli tento pozoruhodný citát ohromujúcej koncepčnej spôsobilosti: „Zákon môže povoliť určitý konkrétny čin, aj keď je tento čin nemorálny; a zákon môže zakázať čin, aj keď je tento čin morálne prípustný, alebo dokonca morálne vyžadovaný“ (Shelly Kagan, Hranice morálky, 1998).

Poďme trochu posunúť naše zameranie a uvidíme, ako sa tieto dvojité kontroly hodia do ďalšej veľmi skúmanej témy AI, konkrétne Zodpovedná AI alebo spoločné zváženie zosúladenia ľudských hodnôt a AI.

Všeobecnou predstavou je, že chceme AI, ktorá dodržiava správne a žiaduce ľudské hodnoty. Niektorí to označujú ako Zodpovedná AI. Podobne diskutujú aj iní Zodpovedná AI, Spoľahlivá AIa Zarovnanie AI, ktoré sa všetky dotýkajú rovnakého princípu základného kameňa. Pre moju diskusiu o týchto dôležitých otázkach pozri odkaz tu a odkaz tu, Len aby sme vymenovali niekoľko.

Ako môžeme dosiahnuť, aby AI bola v súlade s ľudskými hodnotami?

Ako už bolo naznačené, dúfali by sme, že vývojári AI budú vedieť vyvíjať AI, ktorá dosiahne zodpovednú priľnavosť AI. Žiaľ, nemusia, podľa dôvodov, ktoré boli objasnené skôr. Okrem toho by sa o to mohli pokúsiť, no napriek tomu sa AI nakoniec sama prispôsobí za hranicu etického správania alebo možno do nezákonných vôd.

Dobre, potom musíme zvážiť naše šikovné švihácky ako prostriedok na podporu týchto rizík a expozícií. Použitie dobre navrhnutého dvojitého overenia etiky AI môže materiálne pomôcť pri zosúladení AI s ľudskými hodnotami. Podobne aj použitie dobre navrhnutého právneho dvojitého kontrolóra AI môže podstatne pomôcť pri zosúladení AI s ľudskými hodnotami.

Rozhodujúcim a zatiaľ nie dobre známym prostriedkom na dosiahnutie zodpovednej umelej inteligencie, dôveryhodnej umelej inteligencie, zodpovednej umelej inteligencie, zosúladenia umelej inteligencie atď. by teda bolo použitie dvojitých kontrol AI, ako je dvojitá kontrola AI etiky a Právna dvojitá kontrola AI, ktorá by neúnavne fungovala ako dvojitá kontrola AI, do ktorej sú vložené.

V tejto diskusii by som chcel ísť trochu podrobnejšie o povahe a konštrukciách dvojitých kontrol AI Legal, ktoré môžu byť zabudované do AI. Ak to chcete urobiť, môže byť užitočné podeliť sa s vami o ďalšie informácie o celkovej téme AI a právo.

Pre nezmyselné preskúmanie toho, ako sa AI a právo navzájom miešajú, pozri moju diskusiu na adrese odkaz tu. V mojom náročnom pohľade na AI a právo spojenie, poskytujem túto priamu koncepciu dvoch hlavných spôsobov vzájomného vzťahu AI a zákona:

  • (1) Zákon aplikovaný na AI: Formulovanie, prijímanie a presadzovanie zákonov, ktoré sa uplatňujú na reguláciu alebo riadenie umelej inteligencie v našej spoločnosti
  • (2) AI-aplikovaná na zákon: Technológia umelej inteligencie navrhnutá a aplikovaná do práva vrátane právneho uvažovania založeného na AI (AILR) vnesenej do high-tech aplikácií LegalTech na autonómne alebo poloautonómne vykonávanie právnických úloh

Prvý uvedený pohľad spočíva v zvážení toho, ako sa budú AI riadiť existujúcimi a novými zákonmi. Druhá uvedená perspektíva súvisí s uplatňovaním AI v zákone.

Táto posledná kategória zvyčajne zahŕňa použitie právneho odôvodnenia založeného na AI (AILR) v rôznych online nástrojoch, ktoré používajú právnici. Umelá inteligencia môže byť napríklad súčasťou balíka správy životného cyklu zmlúv (CLM), ktorý pomáha právnikom tým, že identifikuje zmluvný jazyk, ktorý bude užitočný pri navrhovaní nových zmlúv, alebo môže odhaliť zmluvy, ktoré majú z právneho hľadiska nejasný jazyk, ktorý umožňuje nehody alebo právne medzery. (pre môj pohľad na takzvané „zápachy zákona“, ktoré môže AI rozpoznať, pozri odkaz tu).

Nevyhnutne použijeme AI na zákon, ktorý sa stane dostupným pre širokú verejnosť a ktorý nevyžaduje, aby bol v obraze právnik. Práve teraz, v dôsledku rôznych obmedzení vrátane UPL (Unauthorized Practical of Law), je sprístupňovanie aplikácií na právne poradenstvo založené na AI chúlostivou a kontroverznou záležitosťou, pozri moju diskusiu na odkaz tu.

Tento úvod o AI a práve som uviedol, aby som poukázal na to, že ďalším inštrumentálnym využitím AI aplikovaným na právo by bolo vytvorenie dvojitých kontrol AI Legal.

Áno, rovnaký druh technologickej zdatnosti, ktorý sa používa pri uplatňovaní AI v zákone, môže slúžiť ako dvojitá povinnosť tým, že AI slúži ako vstavaný alebo implantovaný právny kontrolór AI. Dvojitá kontrola AI Legal je komponent, ktorý sa musí orientovať v právnych aspektoch. Keď zvyšok aplikácie AI vykonáva rôzne akcie, dvojitá kontrola AI Legal meria, či to aplikácia AI robí legálne a v rámci zákonných obmedzení.

Komponent dvojitej kontroly AI Legal nemusí nevyhnutne pokrývať celú škálu všetkého, čo je potrebné vedieť o zákone. V závislosti od povahy aplikácie AI, pokiaľ ide o účel a činnosti AI celkovo, môže byť dvojitá kontrola AI Legal oveľa užšia, pokiaľ ide o právnu expertízu, ktorú obsahuje.

Identifikoval som užitočný rámec na predstavenie toho, ako sa AI v právnej oblasti pohybuje naprieč radom autonómnych kapacít, známych ako úrovne autonómie (LoA). Pre prehľad pozri môj Forbes príspevok v stĺpci z 21. novembra 2022 „Nezmyselný komplexný presvedčivý prípad, prečo právnici potrebujú vedieť o AI a práve“ na odkaz tu, a podrobné technické zobrazenie nájdete v mojom podrobnom výskumnom článku v MIT Computational Law Journal zo 7. decembra 2021, viď odkaz tu.

Rámec objasňuje päť úrovní AI, ktoré sa používajú v právnych snahách:

  • Úroveň 0: Žiadna automatizácia právnej práce založenej na AI
  • Úroveň 1: Jednoduchá automatizácia pomoci pre právnu prácu založenú na AI
  • Úroveň 2: Pokročilá automatizácia pomoci pre právnu prácu založenú na AI
  • Úroveň 3: Poloautonómna automatizácia právnej práce založenej na AI
  • Úroveň 4: Doména autonómna pre právnu prácu založenú na AI
  • Úroveň 5: Plne autonómne pre právnu prácu založenú na AI

Stručne ich tu popíšem.

Úroveň 0 sa považuje za úroveň bez automatizácie. Právne zdôvodnenie a právne úlohy sa vykonávajú pomocou manuálnych metód a v zásade sa uskutočňujú prostredníctvom papierových prístupov.

Úroveň 1 pozostáva z jednoduchej automatizácie pomoci pre právne zdôvodnenie AI. Príklady tejto kategórie by zahŕňali používanie každodenného počítačového spracovania textu, používanie každodenných počítačových tabuliek, prístup k online právnym dokumentom, ktoré sa uchovávajú a získavajú elektronicky atď.

Úroveň 2 pozostáva z pokročilej automatizácie pomoci pre právne zdôvodnenie AI. Príklady tejto kategórie zahŕňajú použitie základného spracovania prirodzeného jazyka (NLP) v štýle dotazov, zjednodušujúce prvky strojového učenia (ML), nástroje štatistickej analýzy na predpovede právnych prípadov atď.

Úroveň 3 pozostáva z poloautonómnej automatizácie pre právne uvažovanie AI. Príklady tejto kategórie zahŕňajú použitie pokročilých znalostných systémov (KBS) na právne zdôvodnenie, použitie strojového učenia a hlbokého učenia (ML/DL) na právne zdôvodnenie, pokročilé NLP atď.

Úroveň 4 pozostáva z doménovo autonómnych počítačových systémov na právne zdôvodnenie AI. Táto úroveň opätovne používa koncepčný pojem domén prevádzkového dizajnu (ODD), ktorý sa používa pre autá s vlastným pohonom, ale ako sa používa v právnej oblasti. Právne oblasti možno klasifikovať podľa funkčných oblastí, ako je rodinné právo, právo nehnuteľností, konkurzné právo, právo životného prostredia, daňové právo atď.

Úroveň 5 pozostáva z plne autonómnych počítačových systémov na právne uvažovanie AI. V istom zmysle je úroveň 5 nadmnožinou úrovne 4, pokiaľ ide o zahrnutie všetkých možných právnych oblastí. Uvedomte si prosím, že toto je dosť náročná úloha.

Tieto úrovne autonómie si môžete predstaviť na rovnakej úrovni ako pri diskusiách o autonómnych autách a autonómnych vozidlách (tiež na základe oficiálneho štandardu SAE, pozrite si moje pokrytie na odkaz tu). Samoriadiace autá SAE Level 5 zatiaľ nemáme. Prechádzame do samoriadiacich áut SAE úrovne 4. Väčšina bežných áut je na úrovni SAE 2, zatiaľ čo niektoré novšie autá prechádzajú na úroveň SAE 3.

V právnej oblasti ešte nemáme úroveň 5 AILR. Dotýkame sa úrovne 4, aj keď v extrémne úzkych ODD. Úroveň 3 začína uzrieť svetlo sveta, zatiaľ čo základný pilier AILR je dnes primárne na úrovni 2.

Nedávny výskumný článok o AI aplikovanej na zákon navrhol typizáciu známu ako Zákon informuje zákonník. Výskumník uvádza toto: „Jedným z primárnych cieľov Zákon informuje zákonník agendou je naučiť AI nasledovať ducha zákona“ (John J. Nay, „Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans“, Northwestern Journal of Technology and Intellectual Property, zväzok 20, pripravovaný). Existuje niekoľko zásadných úvah, ktoré Zákon informuje zákonník mantra prináša a ja vás prevediem niekoľkými z týchto základných pravidiel.

Predtým, ako sa ponorím do témy, by som chcel najprv položiť základné základy o AI a najmä o etike AI a zákonoch o umelej inteligencii, aby som sa uistil, že diskusia bude kontextovo zmysluplná.

Rastúce povedomie o etickej AI a tiež zákon o AI

Nedávna éra AI bola spočiatku vnímaná ako bytia AI pre dobro, čo znamená, že by sme mohli použiť AI na zlepšenie ľudstva. Na pätách AI pre dobro prišlo poznanie, že sme aj my ponorení AI pre zlé. To zahŕňa umelú inteligenciu, ktorá je navrhnutá alebo upravená tak, aby bola diskriminačná a robí výpočtové rozhodnutia, ktoré sú nenáležité. Niekedy je AI postavená týmto spôsobom, zatiaľ čo v iných prípadoch sa točí do tohto nevhodného územia.

Chcem sa uistiť, že sme na rovnakej stránke o povahe dnešnej AI.

Dnes neexistuje žiadna umelá inteligencia, ktorá by bola vnímavá. Toto my nemáme. Nevieme, či bude vnímajúca AI možná. Nikto nemôže vhodne predpovedať, či dosiahneme vnímajúcu AI, ani to, či sa vnímajúca AI nejakým zázrakom spontánne objaví vo forme výpočtovej kognitívnej supernovy (zvyčajne označovanej ako singularita, pozri moje pokrytie na odkaz tu).

Typ AI, na ktorý sa zameriavam, pozostáva z necitlivej AI, ktorú máme dnes. Ak by sme chceli divoko špekulovať o vnímajúcej AI, táto diskusia by sa mohla uberať radikálne iným smerom. Vnímajúca AI by mala mať ľudské kvality. Mali by ste zvážiť, že vnímajúca AI je kognitívnym ekvivalentom človeka. Navyše, keďže niektorí špekulujú, že by sme mohli mať superinteligentnú AI, je možné, že takáto AI by mohla byť inteligentnejšia ako ľudia (pre môj prieskum superinteligentnej AI ako možnosti pozri pokrytie tu).

Dôrazne by som odporučil, aby sme veci držali pri zemi a zvážili dnešnú výpočtovú necitlivú AI.

Uvedomte si, že dnešná AI nie je schopná „myslieť“ akýmkoľvek spôsobom na rovnakej úrovni ako ľudské myslenie. Keď komunikujete s Alexou alebo Siri, konverzačné schopnosti sa môžu zdať podobné ľudským schopnostiam, ale realita je taká, že sú výpočtové a chýba im ľudské poznanie. Najnovšia éra AI vo veľkej miere využíva strojové učenie (ML) a hlboké učenie (DL), ktoré využívajú porovnávanie výpočtových vzorov. To viedlo k systémom AI, ktoré vyzerajú ako ľudia. Medzitým dnes neexistuje žiadna umelá inteligencia, ktorá by mala zdanie zdravého rozumu, ani žiadny z kognitívnych zázrakov robustného ľudského myslenia.

Buďte veľmi opatrní pri antropomorfizácii dnešnej AI.

ML/DL je forma porovnávania výpočtových vzorov. Zvyčajný prístup je taký, že zhromažďujete údaje o úlohe rozhodovania. Dáta vložíte do počítačových modelov ML/DL. Tieto modely sa snažia nájsť matematické vzorce. Po nájdení takýchto vzorov, ak sa nájdu, systém AI potom použije tieto vzory pri stretnutí s novými údajmi. Po predložení nových údajov sa na vyvodenie aktuálneho rozhodnutia použijú vzory založené na „starých“ alebo historických údajoch.

Myslím, že viete hádať, kam to smeruje. Ak ľudia, ktorí sa rozhodovali podľa vzoru, začlenili do seba nepriaznivé predsudky, je pravdepodobné, že údaje to odrážajú jemným, ale významným spôsobom. Zhoda výpočtových vzorov Machine Learning alebo Deep Learning sa jednoducho pokúsi zodpovedajúcim spôsobom matematicky napodobniť údaje. Neexistuje žiadne zdanie zdravého rozumu alebo iných vnímavých aspektov modelovania vytvoreného AI ako takého.

Okrem toho si vývojári AI nemusia uvedomiť, čo sa deje. Tajomná matematika v ML/DL môže sťažiť odhalenie teraz skrytých predsudkov. Oprávnene by ste dúfali a očakávali, že vývojári AI budú testovať potenciálne skryté predsudky, hoci je to zložitejšie, ako by sa mohlo zdať. Existuje solídna šanca, že aj pri relatívne rozsiahlom testovaní budú v modeloch porovnávania vzorov ML/DL stále zakomponované odchýlky.

Do istej miery by ste mohli použiť známe alebo neslávne známe príslovie o odpadkoch do odpadu. Ide o to, že je to skôr podobné zaujatostiam – in, ktoré sa zákerne naplnia, keď sa predsudky ponoria do AI. Algoritmus rozhodovania (ADM) AI je axiomaticky zaťažený nerovnosťami.

Nie dobré.

To všetko má mimoriadne významné dôsledky na etiku AI a ponúka praktické okno do získaných skúseností (ešte predtým, ako sa stanú všetky lekcie), pokiaľ ide o uzákonenie AI.

Okrem používania etických zásad AI vo všeobecnosti existuje zodpovedajúca otázka, či by sme mali mať zákony upravujúce rôzne spôsoby použitia AI. Na federálnej, štátnej a miestnej úrovni sa hromadia nové zákony, ktoré sa týkajú rozsahu a povahy toho, ako by mala byť navrhnutá AI. Snaha vypracovať a prijať takéto zákony je postupná. Etika AI slúži prinajmenšom ako zvažovaná prestávka a takmer určite bude do určitej miery priamo začlenená do týchto nových zákonov.

Uvedomte si, že niektorí neústupne tvrdia, že nepotrebujeme nové zákony, ktoré pokrývajú AI, a že naše existujúce zákony sú dostatočné. Varujú pred tým, že ak prijmeme niektoré z týchto zákonov AI, zabijeme zlatú hus tým, že potlačíme pokroky v AI, ktoré ponúkajú obrovské spoločenské výhody.

V predchádzajúcich stĺpcoch som popísal rôzne národné a medzinárodné snahy o vytvorenie a prijatie zákonov regulujúcich AI, pozri odkaz tu, napríklad. Zaoberal som sa aj rôznymi princípmi a usmerneniami etiky umelej inteligencie, ktoré identifikovali a prijali rôzne národy, vrátane napríklad úsilia Organizácie Spojených národov, ako je súbor etiky umelej inteligencie UNESCO, ktorý prijalo takmer 200 krajín, pozri odkaz tu.

Tu je užitočný základný zoznam etických kritérií alebo charakteristík AI systémov AI, ktoré som predtým podrobne preskúmal:

  • Priehľadnosť
  • Spravodlivosť a spravodlivosť
  • Neškodnosť
  • zodpovednosť
  • súkromia
  • dobročinnosť
  • Sloboda a autonómia
  • Verte
  • Udržateľnosť
  • dôstojnosť
  • Solidarita

Predpokladá sa, že tieto princípy etiky AI budú vážne využívať vývojári AI spolu s tými, ktorí riadia úsilie o vývoj AI, a dokonca aj tými, ktorí v konečnom dôsledku nasadzujú a vykonávajú údržbu systémov AI.

Všetky zainteresované strany počas celého životného cyklu vývoja a používania AI sa zohľadňujú v rámci dodržiavania zavedených noriem Etickej umelej inteligencie. Toto je dôležitý prvok, pretože zvyčajný predpoklad je, že „iba kóderi“ alebo tí, ktorí programujú AI, podliehajú dodržiavaniu etických pojmov AI. Ako už bolo zdôraznené vyššie, na vymyslenie a nasadenie AI je potrebná dedina, v ktorej musí byť celá dedina oboznámená a dodržiavať etické predpisy AI.

Tiež som nedávno skúmal Listina práv AI čo je oficiálny názov oficiálneho dokumentu vlády USA s názvom „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People“, ktorý bol výsledkom ročného úsilia Úradu pre politiku vedy a techniky (OSTP). ). OSTP je federálny subjekt, ktorý slúži americkému prezidentovi a výkonnému úradu USA v rôznych technologických, vedeckých a inžinierskych aspektoch národného významu. V tomto zmysle môžete povedať, že táto listina práv AI je dokument schválený a schválený existujúcim Bielym domom USA.

V listine práv AI je päť základných kategórií:

  • Bezpečné a efektívne systémy
  • Algoritmická diskriminačná ochrana
  • Ochrana osobných údajov
  • Upozornenie a vysvetlenie
  • Ľudské alternatívy, ohľaduplnosť a núdza

Dôkladne som si preštudoval tie predpisy, vidíte odkaz tu.

Teraz, keď som položil užitočný základ na tieto súvisiace témy o etike umelej inteligencie a zákone o umelej inteligencii, sme pripravení skočiť do opojnej témy dvojitej kontroly AI Legal a ríše Zákon informuje zákonník.

Právne dvojité kontroly AI vložené do AI na zosúladenie ľudských hodnôt

Niekedy odkazujem AI Legal Double-Checkers prostredníctvom skratky AI-LDC. To je trochu vizuálne rušivé pre tých, ktorí túto skratku nepoznajú. Preto v tejto diskusii nepoužijem túto konkrétnu skratku, ale chcel som vám ju spomenúť ako upozornenie.

Aby sme rozbalili niektoré zložitosti dvojitých kontrol AI Legal, poďme sa venovať týmto hlavným bodom:

  • Použitie dvojitých kontrol AI Legal ako mechanizmu zosúladenia ľudských hodnôt AI
  • Expanzívnejšia AI si bude v súlade s tým vyžadovať robustnejšie AI Legal double-checkers
  • Dvojití kontrolóri AI Legal prijímajú zákony a najmä nevytvárajú zákony (pravdepodobne)
  • Jemná rovnováha medzi AI Právne stelesnenie zákona ako pravidlá verzus štandardy
  • Vyžaduje sa dôkaz o pudingu, pokiaľ ide o dodržiavanie zákona AI

Kvôli priestorovým obmedzeniam sa teraz budem venovať len týmto piatim bodom, aj keď prosím, sledujte ďalšie pokrytie v mojom stĺpci, ktorý zahŕňa ďalšie a rovnako pozoruhodné úvahy o týchto rýchlo sa vyvíjajúcich a dopredu napredujúcich záležitostiach.

Hneď teraz si zapnite bezpečnostný pás a pripravte sa na osviežujúcu cestu.

  • Použitie dvojitých kontrol AI Legal ako mechanizmu zosúladenia ľudských hodnôt AI

Existuje mnoho spôsobov, ako sa pokúsiť dosiahnuť harmonický súlad medzi AI a ľudskými hodnotami.

Ako už bolo spomenuté, môžeme vytvárať a propagovať etické predpisy AI a snažiť sa prinútiť vývojárov AI a tých, ktorí využívajú a prevádzkujú AI, aby dodržiavali tieto základné kamene. Bohužiaľ, toto samo o sebe nepomôže. Máte pár vynálezcov, ktorí túto správu nevyhnutne nedostanú. Máte niekoľko konštruktérov, ktorí sa budú chváliť etickou AI a pokúsia sa obísť trochu neviazané a nemotorné predpísané princípy. A tak ďalej.

Používanie prístupov „mäkkého práva“ zahŕňajúce etiku umelej inteligencie sa musí takmer neúprosne spájať s cestami „tvrdého zákona“, ako je prijímanie zákonov a nariadení, ktoré vyšlú silný signál všetkým, ktorí vytvárajú alebo využívajú AI. Dlhé rameno zákona vás môže dostať, ak rozumne nevyužívate AI. Zvuk cinkania dverí väznice mohol upútať ostrú pozornosť.

Veľkým problémom však je, že niekedy už dvierka maštale vypustili kone von. Umelá inteligencia, ktorá je nasadená, bude potenciálne produkovať všetky druhy nezákonných činov a bude v tom pokračovať, až kým nebude len prichytená, ale aj vtedy, keď sa konečne zasiahne nejaké presadzovanie, aby zastavilo tok nezákonných činov. To všetko môže trvať. Medzitým sú ľudia tak či onak ubližovaní.

Do tohto nájazdu prichádza dvojitá kontrola AI Legal.

Dvojitá kontrola AI Legal sa nachádza v aplikácii AI a dokáže okamžite zistiť, kedy sa zdá, že AI porušuje zákon. Dvojitá kontrola AI Legal môže zastaviť AI v jej stopách. Alebo môže komponent upozorniť ľudí na rozpoznané nezákonné aktivity, pričom tak urobí včas, čo by mohlo podnietiť dozorcov k naliehavým nápravným opatreniam. Existuje aj uvažované formalizované protokolovanie, ktoré by komponent mohol vytvoriť, poskytujúci hmatateľnú podobu audit trailu na účely kodifikácie nepriaznivých akcií AI.

O našich zákonoch sa hovorí, že sú formou multiagentnej konglomerácie, takže zákony sú nevyhnutne zmesou toho, čo sa spoločnosť snažila dosiahnuť ako rovnováhu medzi pravdepodobne protichodnými názormi na správne a nevhodné spoločenské správanie. Dvojitá kontrola AI Legal založená na našich zákonoch preto stelesňuje túto zmes.

Ide najmä o viac než len naprogramovanie zoznamu definitívnych právnych pravidiel. Zákony majú tendenciu byť poddajnejšie a usilujú sa o zastrešujúce štandardy, a nie o špecifikovanie tých najmenších mikroskopických pravidiel. Komplikácií je veľa.

Vráťme sa k predchádzajúcej výskumnej práci a uvádzame, ako možno tieto úvahy vnímať aj v súvislosti so snahou o zarovnanie AI: „Zákon, aplikovaná filozofia zosúlaďovania viacerých agentov, jedinečne spĺňa tieto kritériá. Zosúladenie je problém, pretože to nedokážeme ex ante špecifikovať pravidlá, ktoré plne a preukázateľne riadia dobré správanie AI. Podobne zmluvné strany právnej zmluvy nemôžu predvídať každú nepredvídateľnosť ich vzťahu a zákonodarcovia nemôžu predvídať konkrétne okolnosti, za ktorých sa ich zákony budú uplatňovať. Preto je veľká časť práva konšteláciou noriem“ (ibid).

Stelesnenie práva do dvojitej kontroly AI Legal je oveľa náročnejšie, ako by ste mohli na prvý pohľad predpokladať.

Keďže AI napreduje, budeme musieť tieto pokroky primerane využiť. Ukazuje sa, že čo je dobré pre hus, je dobré aj pre husi. Tí z nás, ktorí dosahujú pokrok v oblasti AI v zmysle zákona, posúvajú hranice umelej inteligencie a nepochybne vytvárajú nové pokroky, ktoré môžu v konečnom dôsledku prispieť k pokroku v oblasti AI.

  • Expanzívnejšia AI si bude v súlade s tým vyžadovať robustnejšie AI Legal double-checkers

Tejto téme čelí gambit mačka a myš.

Je pravdepodobné, že keď sa AI bude ďalej vylepšovať, každá zložka dvojitej kontroly AI Legal bude riešiť problémy čoraz ťažšie. Napríklad kontrolovaná aplikácia AI mohla nanovo vymyslieť superzáludné spôsoby, ako skryť nezákonné akcie, ktoré AI podniká. Aj keď sa AI nevydáva nepochopiteľnou cestou, celková zložitosť AI by sama osebe mohla predstavovať skľučujúcu prekážku pri snahe o posúdenie AI Legal Legal.

Tu je návod, ako sa to stáva obzvlášť významným.

Predpokladajme, že vývojár AI alebo nejaká firma využívajúca AI vyhlási, že existuje dvojitá kontrola AI Legal, ktorá bola vložená do aplikácie založenej na AI. Voila, zdá sa, že si teraz umyli ruky od akýchkoľvek ďalších obáv. O všetko sa postará AI Legal double-checker.

Nie tak.

Dvojitá kontrola AI Legal môže byť nedostatočná vzhľadom na povahu príslušnej aplikácie AI. Existuje tiež možnosť, že dvojitá kontrola AI Legal bude zastaraná a možno nebude aktualizovaná najnovšími zákonmi týkajúcimi sa aplikácie AI. Dá sa predvídať množstvo dôvodov, prečo samotná prítomnosť dvojitej kontroly AI Legal nebude striebornou guľkou.

Zvážte tieto poznatky zo skôr citovaného výskumu: „Ako sa najmodernejšia technológia AI napreduje, môžeme nastaviť iteratívne vyššie latky preukázaných schopností právneho porozumenia. Ak vývojár tvrdí, že jeho systém má pokročilé schopnosti v úlohách, mal by preukázať zodpovedajúce pokročilé právne chápanie a právne, uvažovacie schopnosti AI, ktoré nemajú prakticky žiadny strop obtiažnosti, keď zohľadníme bahno zákonov a nariadení v čase, precedensoch a jurisdikciách. “ (tamže).

  • Dvojití kontrolóri AI Legal prijímajú zákony a najmä nevytvárajú zákony (pravdepodobne)

Som si istý, že niektorí z vás sú zdesení myšlienkou mať tieto dvojité kontroly AI Legal.

Jednou z často vyslovovaných obáv je, že zrejme umožníme AI, aby za nás rozhodovala o našich zákonoch. Preboha, možno si hovoríte, nejaký kus automatizácie predbehne ľudstvo. Títo prekliati vnorení AI Legal Legal double-checkers sa stanú predvolenými kráľmi našich zákonov. Čokoľvek urobia, bude to, čím sa zdá byť zákon.

Ľuďom bude vládnuť AI.

A tieto dvojité kontroly AI Legal sú klzkým svahom, ktorý nás tam dostane.

Protiargumentom je, že takéto reči sú predmetom konšpiračných teórií. Divoko postuluješ a dostávaš sa do závratu. Realita je taká, že títo právni dvojití kontrolóri AI nie sú vnímaví, nechystajú sa ovládnuť planétu a propagácia ich existenčného rizika je očividne absurdná a nesmierne prehnaná.

Celkovo vzaté, pri zachovaní pokojného a rozumného postoja musíme mať na pamäti, že dvojité kontrolóry AI Legal slúžia na to, aby primerane odrážali zákon, a nie zámerne, a ani náhodou nezašli ďalej, aby sa nejakým spôsobom dostali do uctievanej sféry výroby. zákona. Ak odhliadneme od extrapolácií vnímania, určite sa zhodneme na tom, že existuje skutočná a naliehavá obava, že dvojitá kontrola AI Legal by mohla skončiť skreslením skutočnej povahy daného zákona.

Na druhej strane by ste mohli tvrdiť, že tento konkrétny „nesprávne prezentovaný“ zákon sa v podstate vytvára nanovo, pretože už vhodne neoznačuje to, čo bolo zamýšľané skutočným zákonom. Verím, že úprimne vidíte, aká je to jemná, ale výstižná úvaha. V ktoromkoľvek okamihu by mohla dvojitá kontrola AI Legal na virtuálnom základe vytvárať alebo povedzme „halucinovať“ nové zákony jednoducho tým, ako zložka AI interpretuje zákon, ako bol pôvodne uvedený alebo stelesnený v AI (pre moje pokrytie AI tzv halucinácie, Pozri odkaz tu).

Na to treba dávať pozor.

Na túto tému vyššie uvedená výskumná štúdia ponúka túto paralelnú myšlienku, pokiaľ ide o snahu odvrátiť prekročenie tejto posvätnej hranice: „Nenaším cieľom je, aby AI mala legitímnosť vytvárať zákony, vytvárať právny precedens alebo presadzovať zákony. V skutočnosti by to podkopalo náš prístup (a mali by sme vynaložiť značné úsilie, aby sme tomu zabránili). Najambicióznejším cieľom Zákona o informovaní o zákone je skôr výpočtovo zakódovať a vložiť zovšeobecnenie existujúcich právnych konceptov a noriem do overeného výkonu AI“ (ibid).

  • Jemná rovnováha medzi AI Právne stelesnenie zákona ako pravidlá verzus štandardy

Zákony sú chaotické.

Pre takmer každý zákon v účtovníctve pravdepodobne existuje množstvo výkladov toho, čo zákon stanovuje v skutočnej praxi. V reči oblasti AI označujeme zákony ako sémanticky nejednoznačné. To je dôvod, prečo je vývoj AI aplikovaný na zákon takou vzrušujúcou a zároveň znepokojujúcou výzvou. Na rozdiel od presného čísla, ktoré môžete vidieť pri povedzme finančne orientovaných aplikáciách AI, túžba začleniť naše zákony do AI znamená vysporiadať sa s tsunami sémantických nejednoznačností.

V mojej nadačnej knihe o základoch AI Legal Reasoning (AILR) diskutujem o tom, ako nás predchádzajúce pokusy iba kodifikovať zákony do súboru ohraničených pravidiel nedostali tak ďaleko, ako by sme chceli v právnej oblasti zájsť (pozri odkaz tu). Dnešné AILR musí zahŕňať integráciu medzi používaním pravidiel a tým, čo by sa dalo nazvať preklenovacími normami, ktoré predstavuje zákon.

Túto dôležitú rovnováhu možno vyjadriť takto: „V praxi sa väčšina právnych ustanovení nachádza niekde v spektre medzi čistým pravidlom a čistým štandardom a právna teória môže pomôcť odhadnúť správnu kombináciu „pravidiel“ a „štandardnosti“ pri špecifikovaní cieľov systémov AI“ (tamtiež).

  • Vyžaduje sa dôkaz o pudingu, pokiaľ ide o dodržiavanie zákona AI

Chcieť niečo je iné ako niečo mať.

Tento drobček múdrosti sa objaví, keď ponúkneme, že hoci by sme možno chceli mať dvojitú kontrolu AI Legal, musíme sa uistiť, že fungujú a fungujú správne. Všimnite si, že to predstavuje ďalšiu ťažkú ​​a vyčerpávajúcu prekážku. V minulosti som sa venoval najnovším pokrokom a výzvam v oblasti overovania a validácie AI, viď odkaz tu.

Ako sa uvádza vo výskumnom dokumente: „Na vyriešenie tejto medzery by mala nasadzujúca strana pred nasadením modelov AI v čoraz väčšmi výkonných kapacitách, napr. plne autonómnych vozidiel na hlavných cestách, preukázať, že systém chápe ľudské ciele, zásady a právne normy. Potvrdzovací postup by mohol ilustrovať „pochopenie“ AI „zmyslu“ právnych pojmov“ (ibid).

záver

Vyzývam vás, aby ste zvážili, či sa ku mne nepripojíte na tejto ušľachtilej výprave za budovaním a nasadzovaním dvojitých kontrol AI Legal. Potrebujeme viac pozornosti a zdrojov venovaných tejto cnostnej snahe.

To tiež poskytuje dvojitú povinnosť, ako už bolo spomenuté, na dosiahnutie AI Legal Reasoning (AILR), ktoré možno použiť na pomoc právnikom a potenciálne priamo použiť široká verejnosť. Niektorí skutočne vehementne argumentujú, že jediným životaschopným prostriedkom na dosiahnutie plnohodnotnejšieho zmyslu pre prístup k spravodlivosti (A2J) bude vytvorenie AI, ktorá stelesňuje právne kapacity a ku ktorej majú prístup všetci.

Zatiaľ jeden rýchly bod na záver.

Doterajšie diskusie zdôrazňovali, že dvojitý kontrolór AI Legal by bol zabudovaný alebo implantovaný do AI. Toto je skutočne hlavným zameraním tých, ktorí skúmajú a vykonávajú túto vznikajúcu oblasť.

Tu je otázka, ktorá stojí za zamyslenie.

Nasaďte si čiapku na myslenie.

Prečo nevyužiť dvojitú kontrolu AI Legal vo všetkých softvéroch?

Podstatou je, že namiesto výlučne používania dvojitých kontrol AI Legal v AI by sme možno mali rozšíriť náš pohľad. Všetky druhy softvéru môžu legálne zablúdiť. Umelá inteligencia si nepochybne získala leví podiel pozornosti vďaka spôsobom, akými sa AI zvyčajne používa, ako je napríklad vykresľovanie žalostných rozhodnutí, ktoré ovplyvňujú ľudí v ich každodennom živote. Môžete však ľahko tvrdiť, že existuje veľa systémov bez AI, ktoré robia to isté.

V podstate by sme nemali nechať žiadny softvér voľnú cestu, aby sme sa vyhli alebo odvrátili zákon.

Pripomeňme si tiež, že som spomenul dve kategórie kombinácie AI a zákona. V tomto dokumente sme sa zamerali na používanie AI v zmysle zákona. Na druhej strane mince je aplikácia zákona na AI. Predpokladajme, že prijmeme zákony, ktoré vyžadujú použitie dvojitej kontroly AI Legal.

Najprv sa to môže obmedziť na systémy AI, najmä tie, ktoré sú hodnotené ako obzvlášť vysokorizikové. Postupne by sa rovnaká požiadavka na dvojitú kontrolu AI Legal mohla rozšíriť aj na softvér bez AI. Opäť žiadne voľné jazdy.

Zatiaľ čo sa budete zaoberať vyššie uvedenými úvahami, okorením to ako záverečný teaser. Ak sa budeme snažiť vyžadovať dvojité kontroly AI Legal, mohli by sme to urobiť aj v prípade dvojitých kontrol etiky AI. Použitie dvojitej kontroly AI Legal je len polovica príbehu a nemôžeme zanedbávať ani zabudnúť na etiku AI.

Tento veselý prejav zakončím jedným z mojich obľúbených citátov. Podľa múdrych slov Earla Warrena, slávneho právnika, ktorý slúžil ako hlavný sudca Spojených štátov: „V civilizovanom živote sa právo vznáša v mori etiky.

Ak chceme udržať hlavu nad potenciálne hroziacim rozbúreným morom pred kyslou umelou inteligenciou a zatrpknutými systémami bez umelej inteligencie, ktoré ohrozujú našu bezpečnosť, mohlo by byť najlepšie rázne použiť tieto začínajúce a prebublávajúce overovače AI Legal Legal a AI Ethics Double Checkers. .

Môžu byť záchrannou vestou ľudstva.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- a-ai-law/