Etika umelej inteligencie zvažuje výhody zákonného poverenia fondov na zmierenie s cieľom zabezpečiť zodpovednosť za nesprávne konanie AI

Kto za to môže?

Môže sa to zdať ako jednoduchá otázka, hoci v prípade slávnej komédie legendárnej dvojice Abbott a Costello o bejzbalovom tíme môže byť „kto“ mätúci. Možno ste matne oboznámení s Kto je na prvom mieste komediálna rutina, z ktorej urobili jednu z najtrvalejších scénok všetkých čias (upozornenie na spoiler pre tých z vás, ktorí to ešte nepočuli).

Abbott hovorí Costellovi, že Kto je na prvom, čo je na druhom a ja neviem, na treťom. Šikovná finta spočíva v tom, že prvý základný hráč sa volá Kto, druhý základňa sa volá Čo a tretí základňa sa volá Neviem. Samozrejme, tieto frázy majú tiež svoj konvenčný význam, a preto môže byť pokus o interpretáciu toho, čo Abbott hovorí, úplne mätúci. V skutočnosti sa Costello pýta na zdanlivo neškodnú otázku, kto je na prvom mieste, pričom odpoveďou je jednoznačne áno. Pre Costella to však nedáva zmysel, pretože očakával meno a namiesto toho dostal ako odpoveď mätúce áno.

Preraďovanie, pokiaľ ide o príchod umelej inteligencie (AI), jedna z najnepríjemnejších otázok, ktoré sa neustále pýtajú, sa týka toho, kto alebo možno za čo bude niesť zodpovednosť, keď AI zblúdi.

Predtým som diskutoval o trestnej zodpovednosti za to, keď AI vedie k trestným činom alebo ich vykonáva, pozri moje pokrytie na odkaz tu. Je tu tiež otázka občianskej zodpovednosti, ako napríklad koho alebo čo by ste mohli žalovať, keď vám AI urobila zle, čo je téma, o ktorej tu budem diskutovať. To všetko má významné aspekty etiky AI. Moje pokračujúce a rozsiahle pokrytie etiky AI a etickej AI nájdete v časti odkaz tu a odkaz tu, Len aby sme vymenovali niekoľko.

Prikázania etiky AI nás vedú k tomu, aby sme zostali ostražití. Technológovia umelej inteligencie môžu byť niekedy zaujatí technológiou, najmä optimalizáciou špičkových technológií. Nezohľadňujú nevyhnutne väčšie spoločenské dôsledky. Mať etické myslenie AI a robiť to integrálne s vývojom a zavádzaním AI je nevyhnutné na vytváranie vhodnej AI vrátane (možno prekvapivo alebo ironicky) hodnotenia toho, ako firmy prijímajú etiku AI.

Okrem používania etických zásad AI vo všeobecnosti existuje zodpovedajúca otázka, či by sme mali mať zákony upravujúce rôzne spôsoby použitia AI. Na federálnej, štátnej a miestnej úrovni sa hromadia nové zákony, ktoré sa týkajú rozsahu a povahy toho, ako by mala byť navrhnutá AI. Snaha vypracovať a prijať takéto zákony je postupná. Etika AI slúži prinajmenšom ako zvažovaná prestávka a takmer určite bude do určitej miery priamo začlenená do týchto nových zákonov.

Uvedomte si, že niektorí neústupne tvrdia, že nepotrebujeme nové zákony, ktoré pokrývajú AI, a že naše existujúce zákony sú dostatočné. V skutočnosti varujú, že ak prijmeme niektoré z týchto zákonov AI, zabijeme zlatú hus tým, že potlačíme pokroky v AI, ktoré ponúkajú obrovské spoločenské výhody.

Prebieha búrlivá diskusia o tom, či existujúce zákony dokážu primerane riešiť vznik systémov AI v celej spoločnosti. Právna zodpovednosť zvyčajne vyžaduje, aby ste mohli pripnúť chvost na somárovi, kto je zodpovedný za škodlivé správanie. V prípade AI môže existovať dosť nejasná cesta, ktorá spája konkrétnu osobu alebo osoby s AI, ktorá vykonala nejakú ujmu. Umelá inteligencia môže byť do značnej miery nevysledovateľná k zdroju alebo vynálezcovi, ktorý umelú inteligenciu vytvoril.

Ďalšou úvahou je, že aj keď možno korene AI vysledovať k niekomu, otázkou je, či osoba alebo osoby nemohli primerane predvídať nepriaznivý výsledok, ktorý AI nakoniec vytvorila. Jadro predvídateľnosti je zvyčajne dôležitým faktorom pri posudzovaní právnej zodpovednosti.

Môžete byť v pokušení myslieť si, že môžete jednoducho ísť po samotnom AI a pomenovať AI ako právnu stranu zodpovednú za akúkoľvek škodu, ktorá údajne vznikla. Celkovo prevláda právny názor, že AI ešte nedosiahla úroveň právnickej osoby. Nebudete teda môcť striktne vzaté, aby ste prinútili AI, aby zaplatila, a budete musieť nájsť ľudí, ktorí v zákulisí ovládali páky (pre moju analýzu právnej osoby pre AI pozri odkaz tu).

Do všetkého tohto potenciálneho právneho bahna vchádza myšlienka, ktorá sa vnáša ako možný prostriedok nápravy, či už krátkodobo, alebo možno aj dlhodobo. Myšlienkou je, že možno by mal byť zriadený špeciálny kompenzačný fond, ktorý by poskytoval finančnú pomoc tým, ktorí boli poškodení AI. Ak sa vám inak nedarí prinútiť AI, aby vás odškodnila, a nedokážete určiť osoby, ktoré by mali byť pravdepodobne brané na zodpovednosť, ďalšou najlepšou možnosťou by mohlo byť využitie kompenzačného fondu, ktorého cieľom je pomôcť tým, ktorí sú poškodení AI.

Takýto fond by sa podobal určitej forme poistenia, ako sa uvádza v jednom podnetnom výskumnom dokumente: „Išlo by v podstate o poistný mechanizmus proti neistote: Jasný a transparentný rámec pre rýchle odškodnenie v prípadoch, keď má žaloba o zodpovednosť. neisté alebo žiadne vyhliadky na úspech v dôsledku nepredvídateľnej povahy škodlivého konania, samotného (typu) škody alebo nadmerných nákladov a/alebo zložitosti postupu“ (článok Olivie Erdelyiovej a Gabora Erdelyiho, „Hádanka zodpovednosti AI A obchádzanie založené na fondoch“, Journal of Artificial Intelligence Research, 2021).

Kompenzačný fond by bol súčasťou zastrešujúceho systému záruk AI (AIGS) a sprevádzali by ho mierne zmeny existujúcich zákonov o právnej zodpovednosti. Ľahký dotyk by sa pravdepodobne ľahšie uzákonil a nevyžadoval by si namáhavý druh právnej a spoločenskej úzkosti, ak by sa v existujúcich právnych režimoch vykonala séria demonštratívnejších zmien. Podľa výskumníkov: „Toto odráža naše presvedčenie, že – napriek príťažlivosti takéhoto rýchleho riešenia – nezmenený uplatňovanie existujúcich pravidiel zodpovednosti na AI alebo a protekcionisticky motivované odvolávanie sa na objektívnu zodpovednosť s cieľom stanoviť zodpovednosť za každú cenu nie sú správnymi odpoveďami z troch dôvodov: Po prvé, ignorujúc, že ​​tieto pravidlá boli prispôsobené rôznym okolnostiam, a preto môžu byť nevhodné pre AI, sú v rozpore s jemne vyváženými cieľmi systém právnej zodpovednosti. Po druhé, bránia inovácii AI prijatím neprimerane represívneho prístupu. Po tretie, nenáležité uchyľovanie sa k objektívnej zodpovednosti skôr dogmaticky nekonzistentným spôsobom obchádza predvídateľnosť a problémy s chybami, než aby ich napravilo“ (ako je uvedené vyššie).

Medzi argumenty v prospech takýchto kompenzačných fondov AI patria:

  • Znižuje potrebu zdĺhavých a nákladných súdnych procesov na zvládnutie škôd spôsobených AI
  • Uisťuje ľudí, že môžu využívať AI a v prípade poškodenia môžu byť odškodnení
  • Podporuje inováciu AI zmierňovaním právnej neistoty, ktorej čelia inovátori AI
  • Môže byť uvedený do používania oveľa rýchlejšie ako pri rozsiahlych zmenách existujúcich zákonov
  • Ponúka pomerne jasný liek, ktorý je spoľahlivý a ľahko dostupný
  • ostatné

Medzitým tí, ktorí sú proti prístupu kompenzačných fondov AI, hovoria toto:

  • Zbavme sa tvorcov AI a dovoľme im zbaviť sa zodpovednosti
  • Posmelí tvorcov AI, aby vytvorili AI, ktorej chýba dôsledná bezpečnosť a správne ovládacie prvky
  • Mohlo by to podnietiť ľudí, aby falošne tvrdili, že škodí AI, aby mohli využiť finančné prostriedky
  • Obchádza a podkopáva skutočnú potrebu prepracovať naše zákony, aby dostatočne riadili AI
  • Mohlo by sa stať byrokratickou nočnou morou, ktorá uviazne a zneužije finančné prostriedky
  • ostatné

Ako môže byť zrejmé, existujú zástancovia aj odporcovia tohto celkom kontroverzného pojmu.

Ťažko by ste mohli súhrnne vylúčiť kompenzačný fond AI ako potenciálny prístup k rastúcim obavám z AI, ktoré spôsobujú škody. Navrhované riešenie nie je ani slam dunk.

Jedným z hľadísk je, že tvorcovia AI by museli vložiť peniaze do fondov ako súčasť svojho úsilia pri navrhovaní a propagácii AI. Dalo by sa to chápať ako druh poplatku alebo dane, ktorú sú povinní znášať ako súčasť toho, aby mohli vypustiť svoju AI do sveta. Potláčajú však tieto dodatočné náklady potenciálne snahy startupov, ktoré sa snažia posunúť hranice dnešnej AI? A ako by sa riešilo presadzovanie toho, aby tvorcovia umelej inteligencie platili svoj poplatok alebo daň?

Vzniká množstvo otázok, ktoré by bolo potrebné vyriešiť:

  • V ktorých krajinách by bol kompenzačný fond AI najlepšie uskutočniteľný?
  • Dalo by sa vytvoriť globálne zdanie vzájomne prepojených kompenzačných fondov AI?
  • Aké by boli podrobné a funkčné mechanizmy spojené s takýmito fondmi?
  • Ako sa majú financovať kompenzačné fondy AI (verejné, súkromné, charitatívne)?
  • Išlo by o bezporuchový poistný základ alebo by sa zvolil iný prístup?
  • Atď

Oblasť, v ktorej sa už presadila myšlienka kompenzačných fondov AI, pozostáva z autonómnych systémov, ako sú autonómne vozidlá a autá s vlastným pohonom. Pre moje pokrytie samoriadiacich áut a autonómnych systémov AI pozri odkaz tu.

Tu je náčrt toho, ako by to mohlo fungovať pre samoriadiace autá založené na AI.

Predpokladajme, že samoriadiace auto narazí do cyklistu. Cyklista je zranený. Cyklista sa môže domáhať právnej nápravy tým, že bude stíhať výrobcu autonómneho vozidla. Alebo sa môžu zamerať na technologickú firmu s vlastným pohonom, ktorá vyrobila systém riadenia AI. Ak sa samoriadiace vozidlo prevádzkuje ako vozový park, ďalšou legálnou cestou by bolo prenasledovanie prevádzkovateľa vozového parku. Pokúsiť sa žalovať AI nie je v tejto chvíli možné, pretože právna osoba AI ešte nie je stanovená.

Namiesto podniknutia súdneho konania proti ktorejkoľvek z týchto strán by ďalším prostriedkom bolo podanie žiadosti alebo nároku na vhodný kompenzačný fond AI. Fond by formalizoval procesy zahŕňajúce preskúmanie nároku a potom by určil, či by sa navrhovateľovi mohli poskytnúť nejaké kompenzačné platby. Môže existovať proces odvolania, ktorý pomáha žiadateľom, ktorí sa domnievajú, že ich fond buď nesprávne zamietol, alebo fond nedostatočne kompenzoval.

Teoreticky by kompenzačný fond AI bol oveľa rýchlejšou cestou k získaniu kompenzácie za spôsobenú škodu. Viete si predstaviť, aké namáhavé môže byť súdne konanie, v rámci ktorého by sa žalované firmy mohli pokúsiť prípad natiahnuť.

Advokáti by však mohli zdôrazniť, že kompenzačný fond AI by mohol týmto iným stranám, ako sú napríklad výrobcovia AI, umožniť, aby sa zdanlivo vyhli akémukoľvek jasnému trestu za to, že pustili svoje samoriadiace auto na verejné cesty, čo skončilo nárazom na cyklistu. Čo iné by sa tieto firmy mohli rozhodnúť „nedbalo“ urobiť? Bez hroziaceho prízraku legálneho meča visiaceho nad ich hlavami by sme sa mohli ocitnúť v každodennom konfrontácii s AI, ktorá je plná ohrozujúcich kapacít.

Argumenty idú dookola.

záver

Etika AI nám pripomína, že by sme mali vždy zvažovať etické a právne dôsledky AI. V tomto prípade kompenzačných fondov AI sa navrhovaná predstava fondu podobných poistení na kompenzáciu tých, ktorí sú poškodení AI, zdá lákavá. Finančné prostriedky by tam zdanlivo čakali, pripravené na čerpanie a poskytli by čo najskôr kompenzáciu.

Kompromisy, či by to mohlo otvoriť stavidlá smerom k vytváraniu AI, ktorá má čoraz menej bezpečnostných kontrol, je skľučujúca a až príliš reálna obava. Asi nemusíme prilievať olej do ohňa, ktorý je už možno trochu rozbehnutý.

Môžeme ešte nejakým spôsobom prinútiť výrobcov AI, aby navrhli vhodnú etickú AI a súčasne vytvorili tieto kompenzačné fondy AI?

Niekto by povedal, že áno, môžeme. Prepracovaním existujúcich zákonov tak, aby boli v súlade s kompenzačnými fondmi AI, by tí, ktorých AI poškodila, mali potenciálne dvojitú cestu k získaniu spravodlivej kompenzácie.

Kto je na prvom mieste?

Áno, práve to je (ako u nás všetkých) na prvom mieste, že by sme mali uvažovať nad potenciálnym využitím kompenzačných fondov AI a upraviť existujúce zákony, aj keď len zľahka, a poskytnúť tak prostriedky, ako sa vysporiadať s náporom dobrej AI a zlá AI.

V tejto dôležitej úvahe nie je žiadny zmätok.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- zodpovednosť/