Etika AI Opatrne posudzuje, či ponúkanie predsudkov AI Poľovnícke odmeny na chytenie a nachytanie eticky zlého plne autonómneho systému je obozretné alebo zbytočné

Hľadá sa: Lovci zaujatosti AI.

Mohla by to byť moderná reklama, ktorá sa vám začne objavovať na kanáloch sociálnych médií a objavovať sa v rôznych online inzerátoch. Ide o relatívne nový koncept alebo rolu. Nesie so sebou kontroverziu. Niektorí zanietení veriaci vrúcne argumentujú, že to dáva veľký zmysel a malo sa to diať odjakživa, zatiaľ čo iní sa dosť nervózne škrabú po hlave a nie sú si istí, či je to dobrý nápad.

Podstata tejto úlohy spočíva v tom, že AI vylúči akékoľvek skryté predsudky alebo vložené diskriminačné praktiky. K záchrane prichádzajú horliví a úplne bývalí umelci zaujatí lovci. Pravdepodobne by to boli počítačovo zdatní lovci odmien. Ešte viac, dúfajme, ponorené do hlbín schopností AI.

Majte zbraň, budete cestovať a dokážete prostredníctvom umelej inteligencie a horlivej streľby odhaliť tieto nechutné a nechutné predsudky AI.

To vyvoláva množstvo chúlostivých otázok o rozumnosti presadzovania takejto taktiky, pokiaľ ide o odhaľovanie predsudkov AI. Ako budem teraz diskutovať, vedzte, že nástup AI so sebou priniesol aj vznik predsudkov AI. Príval predsudkov AI. Moje pokračujúce a rozsiahle pokrytie etiky AI a etickej AI nájdete v časti odkaz tu a odkaz tu, Len aby sme vymenovali niekoľko.

Ako zistíme, že konkrétny systém AI má predsudky?

Môžete tým poveriť vývojárov AI, ktorí AI navrhli. Ide o to, že môžu byť tak utopení v predsudkoch, že oni sami nedokážu rozpoznať zaujatosti vo svojej vykonštruovanej AI. Všetko to pre nich vyzerá dobre. Alebo by mohli byť takí nadšení z AI a mať z nej pocit vlastnej hrdosti, že potom kriticky skúmať, či nie je zaujatá, by bolo ťažké a skutočne ponižujúce. Môže sa zdať, že mnoho ďalších takýchto dôvodov podkopáva, keď túto úlohu prevezmú vývojári AI, vrátane nedostatku zručností na zistenie vložených predsudkov, nedostatku času v projekte, aby tak urobili atď.

Dobre, tak neváhajte a najmite si externých konzultantov, ktorí za vás urobia špinavú prácu. Ukázalo sa, že konzultanti s radosťou preveria vašu AI na zaujatosti, pričom vám za to účtujú pekný cent (veľa, veľa peňazí). Uvedomte si, že za ne musíte zaplatiť, aby ste mohli pracovať s vaším systémom AI. Potom ich musíte nechať prehrabávať sa, čo môže trvať nevýslovne veľa hodín nákladnej práce. Využitie konzultantov je možnosťou, ak na to máte rozpočet.

Do potenciálnej „medzery“ v tom, ako nájsť tieto zákerné predsudky AI, prichádzajú hrdinskí a skvelí lovci odmien AI.

Zvyčajne im neplatíte vopred. Snažia sa nájsť predsudky AI vo svojom vlastnom čase a musia si pri tom platiť vlastné účty. Iba ak úspešne nájdu predsudky, dostanú zaplatené. Predpokladám, že by ste mohli ľahko potvrdiť, že pri vhodnom spôsobe myslenia je to konvenčná definícia lovca odmien. Získajte zaplatené, ak uspejete. Nenechajte si platiť, ak nie ste úspešní. Obdobie, koniec príbehu.

Programy odmien existujú prinajmenšom od čias Rimanov, a preto by sme sa mohli domnievať, že fungujú, pričom úspešne vydržali ako prax počas všetkých týchto rokov.

Tu je pre vás fascinujúci kúsok historických drobností. Údajne uverejnená správa počas Rímskej ríše v meste Pompeje hlásala, že na nájdenie medeného hrnca, ktorý sa stratil v malom obchode, sú potrební lovci odmien. Odmenou za získanie medeného hrnca bola impozantná cena šesťdesiatpäť bronzových mincí. Je nám ľúto, že nevieme, či nejaký lovec odmien našiel medený hrniec a získal bronzové mince, ale vieme, že lov odmien určite pokračuje od tých dávnych čias.

V modernejšej dobe si možno uvedomujete, že v 1980. rokoch sa ponúkali niektoré pozoruhodné odmeny za nájdenie počítačových chýb alebo chýb v bežných softvérových balíkoch a potom v deväťdesiatych rokoch Netscape výrazne ponúkol odmenu za nájdenie chýb v ich webovom prehliadači. (stal sa jednou z najvýznamnejších firiem tej doby). Google a Facebook sa rozhodli pre lov odmien za chyby od roku 1990 a 2010. O niekoľko rokov neskôr, v roku 2013, sa dokonca aj ministerstvo obrany USA (DoD) dostalo do činu tým, že malo odmenu „Hack the Pentagon“ (všimnite si, že verejne zameraná odmena bola za chyby nájdené na rôznych webových stránkach súvisiacich s DoD a nie na kritické obranné systémy).

Poďme sa ponoriť hlbšie do témy bug bounty. Uvedomujem si, že v tejto diskusii chcem hovoriť hlavne o predsudkoch AI pri love odmeny, ale existuje niekoľko celkom relevantných paralel s arénou odmien za chyby.

Niektorí sú preukázateľne zmätení, že každá firma by chcela ponúknuť odmenu za nájdenie chýb (alebo v tomto prípade zaujatosti AI) v ich systémoch.

Navonok to vyzerá ako stratégia typu „žiadate o to“. Ak dáte svetu vedieť, že vítate tých, ktorí by sa mohli pokúsiť nájsť diery vo vašom softvéri, zdá sa, že to znamená povedať zlodejom, aby pokračovali a pokúsili sa vlámať do vášho domu. Aj keď už veríte, že máte celkom dobrý poplašný systém proti vlámaniu a že by sa nikto nemal dostať do vášho zabezpečeného domu, predstavte si, že by ste požiadali a skutočne prosili zlodejov, aby sa všetci zišli do vášho bydliska a zistili, či môžu. prasknúť do toho. Och, problémy, ktoré si splietame pre seba.

To isté by sa dalo povedať o požiadaní lovcov odmien, aby našli zaujatosti vo vašej AI.

Po prvé, možno to znamená, že už veríte alebo dokonca priamo viete, že vaša AI má predsudky. To je šokujúco priamočiare implicitné priznanie, ktoré, zdá sa, málokto chce urobiť a ktoré by sa mohlo potenciálne vypomstiť.

Po druhé, neviete s istotou, čo by tí lovci odmien mohli urobiť. Mohli by sa rozhodnúť povedať celému svetu, že vo vašej AI našli zaujatosti. Dá sa predpokladať, že by to mohlo prísť o získanie odmeny, hoci niektorí by si mohli vychutnať pozornosť alebo sa zamerať na posilnenie svojho postavenia na získanie konzultačných koncertov a iných možností vytvárania výnosov. Možno by to bolo úplne altruistické. Môže to byť forma aktivizmu AI. Môžem pokračovať.

Po tretie, v celej záležitosti môže dôjsť k záludnému zvratu. Lovec odmien, ktorý tvrdí, že hľadá predsudky AI, sa môže diabolsky predierať, aby našiel spôsoby, ako zaútočiť na váš systém AI. Celá vec je šaráda nakoniec podniknúť tvrdý kybernetický útok. Mohli ste predpokladať, že sa snažia pomôcť, zatiaľ čo vo svojich srdciach majú zlé skutky. Smutné, ale možné.

Po štvrté, v tejto veci môžeme byť ešte prefíkanejšie. Lovec odmien nájde nejaké trápne a potenciálne súdne spory podnecujúce predsudky AI. Odmena je nejaká suma dolárov, ktorú budeme nazývať X. Namiesto toho, aby si odmenu žiadal, lovec odmien robí akúsi zvláštnu ransomvérovú provokáciu. Ak zaplatíte lovcovi odmien sumu desaťkrát X alebo možno oblohu ako limit, povedia vám o predsudkoch AI. Na odpoveď máte čas do nedeľnej noci do polnoci. Po tomto časovom bode budú predsudky AI odhalené, aby ich všetci videli. Fuj, otrasná situácia.

Po piate, najnovšie sú to takzvaní „hack to return“ kybernetický podvodníci, ktorí sa po tom, čo ukradli kopu online cesta, rozhodli činiť pokánie a vrátiť časť nečestne získanej koristi, ktorú uchmatli. Spoločnosť, ktorá dostane svoje peniaze čiastočne späť, je potom ochotná považovať zostávajúcu ukradnutú sumu za dodatočnú odmenu, ktorá bude odmenená zlodejom. Zdá sa, že všetci „vyhrávajú“ v tom, že väčšina prostriedkov je vrátená a medzitým nie sú kybernetický podvodníci legálne prenasledovaní a navyše dostanú odmenu za pirátov. Ide o obozretné alebo zákerné udržiavanie protiprávnych činov?

Uvedomujem si, že niektorí z vás by mohli povedať, že nikto by nemal vydávať AI, ktorá má v sebe nejaké predsudky. Zdá sa, že to vyrieši celú túto dilemu o tom, či použiť lovcov odmien s predsudkami AI alebo nie. Len sa nedostaňte do situácie odmeny. Uistite sa, že vaši vývojári AI robia správnu vec a nepovoľujú zaujatosti AI do svojich systémov AI. Možno použite konzultantov na dvojitú kontrolu. V podstate urobte všetko, čo musíte urobiť, aby ste sa vyhli tomu, že by ste niekedy premýšľali o zaujatých lovcoch odmien AI alebo ich nepožiadali, aby prišli k stolu.

Áno, zdalo by sa to úplne rozumné. Problém je, že je to aj trochu snové. Zložitosť mnohých systémov AI je taká veľká, že snaha zabezpečiť, aby sa neobjavila ani jedna unca skreslenia AI, bude namáhavé. Okrem toho sú niektoré systémy AI zámerne navrhnuté tak, aby sa prispôsobovali a „učili sa“ za pochodu. To znamená, že niekedy v budúcnosti môže AI, ktorú ste vymysleli a predstierajme, že bola na začiatku čisto čistá a bez predsudkov, smerovať k stelesňovaniu predsudkov (nemyslím to antropomorfným spôsobom, ako vysvetlím ďalej, keď budeme pokračujte v tejto téme).

Tí, ktorí uprednostňujú lov odmien za softvérové ​​chyby, majú tendenciu tvrdiť, že má zmysel ponúkať takéto odmeny. Môžeme zvážiť ich zdôvodnenie a zistiť, či sa vzťahuje aj na oblasť predsudkov AI.

Zástancovia odmien za chyby zdôrazňujú, že namiesto toho, aby ste sa snažili predstierať, že vo vašom systéme nie sú žiadne diery, prečo nepodnecovať k nájdeniu dier, a to „kontrolovaným“ spôsobom? Naproti tomu bez takéhoto úsilia o odmenu by ste mohli len dúfať a modliť sa, aby náhodou nikto dieru nenašiel, ale ak namiesto toho ponúkate odmenu a hovoríte tým, ktorí dieru nájdu, že budú odmenení, ponúka šancu potom vykopať dieru vlastnými silami a potom zabrániť ostatným, aby ju tajne našli niekedy neskôr.

To isté by sa dalo povedať v prípade skreslenia AI. Ak ponúknete dostatočnú odmenu, dúfajme, že lovci odmien vás upozornia na odhalenie predsudkov AI. Potom sa môžete vyrovnať s odchýlkami AI relatívne tichým a meraným spôsobom. To by mohlo neskôr predísť oveľa väčšiemu a skľučujúcejšiemu problému, konkrétne tomu, že niekto iný nájde vo vašej AI zaujatosti AI a kričí o tom do nebes.

Vo všeobecnosti platí, že firma, ktorá chce povoliť odmenu za chyby, zavedie politiku zverejňovania zraniteľnosti (VDP). VDP uvádza, ako sa majú chyby nájsť a nahlásiť firme, spolu s tým, ako bude poľovníkovi poskytnutá odmena alebo odmena. VDP zvyčajne vyžaduje, aby lovec podpísal dohodu o mlčanlivosti (NDA), aby ostatným neprezradil, čo našiel.

Myšlienka používania NDA s lovcami odmien má určitú kontroverziu. Aj keď možno dáva zmysel, že spoločnosť ponúkajúca odmenu chce ponechať mame nájdené odhalenia, hovorí sa, že to tiež potláča celkové povedomie o takýchto chybách. Pravdepodobne, ak sa dovolí hovoriť o softvérových chybách, potenciálne by to pomohlo bezpečnosti iných systémov v iných firmách, ktoré by potom podporili ich vystavenie. Niektorí lovci odmien nepodpíšu NDA, čiastočne kvôli verejnej túžbe a čiastočne kvôli snahe udržať svoju vlastnú identitu skrytú. Majte tiež na pamäti, že aspekt NDA zvyčajne nevznikne, kým lovec netvrdí, že našiel chybu, namiesto toho, aby to vyžadoval vopred.

Niektorí VDP stanovujú, že NDA je len na obmedzené časové obdobie, čo firme umožňuje najprv nájsť riešenie zjavnej diery a potom umožniť jej širšie zverejnenie. Akonáhle je diera upchatá, firma povolí uvoľnenie NDA, aby sa zvyšok sveta dozvedel o chybe. Typický čas do vyriešenia chýb, ktoré sú lovené odmenami, je údajne okolo 15 – 20 dní, keď ho chce firma okamžite zastrčiť, zatiaľ čo v iných prípadoch sa môže natiahnuť na 60 – 80 dní. Pokiaľ ide o vyplatenie odmeny lovcovi, takzvaný čas na vyplatenie, po overení, či diera skutočne existuje, výplaty odmien sú údajne zvyčajne v rozmedzí 15 až 20 dní pre menšie prípady a približne 50 až 60 dní pre väčšie prípady (toto sú neustále sa meniace priemyselné indikácie a sú uvedené len ako ilustračné).

Mali by byť lovci odmien tiež požiadaní, aby sa zúčastnili na VDP a zaoberali sa NDA?

Na túto otázku môžete dostať áno a nie. Áno, niektoré firmy by mali ísť touto cestou. Nie, možno sa nemusíte nevyhnutne rozhodnúť ísť touto cestou. Medzi faktory patrí veľkosť a povaha AI, potenciál akýchkoľvek zaujatých expozícií AI a množstvo ďalších etických, právnych a obchodných hľadísk, ktoré prichádzajú do úvahy.

Mohol by som dodať, že založenie úsilia o odmenu za predsudky AI vašej AI je oveľa vyššou úlohou, než by ste mohli predpokladať na prvý pohľad.

Začneme hrozivou možnosťou, že vás prevalcujú lovci odmien AI.

Práve teraz by ste len ťažko našli veľa ľudí, ktorí by mali takúto vizitku. V okolí ich nie je veľa. V tomto smere sú to časy divokého západu. Ak sa však predstava predsudkov AI v love odmeny uchytí, najmä keď sú odmeny bohaté a bohato obohacujúce, môžete sa staviť, že každý sa ponorí do bazéna lovu predsudkov.

Chcete vo svojom systéme umelej inteligencie všemožné riffy sledujúce predsudky AI? Dostanete niekoľko príjemcov, ktorí sú v skutočnosti expertmi na takéto veci. Získate ďalších odberateľov, ktorí sú amatéri a môžu narobiť neporiadok alebo plakať vlka. Ďalšia vec, ktorú viete, každý, kto vie hláskovať „Umelá inteligencia“, príde kopať do vašej zlatej bane systému AI pre tie vzácne zlaté nugety s predsudkami AI. Zlatá horúčka je na svete. To nemusí byť pre vás dobré.

Budete musieť preskúmať príspevky lovca odmien. V nahlásených tvrdeniach bude veľa „šumu“ v tom zmysle, že mnohé z tvrdených skreslení AI neexistujú, hoci lovec odmien trvá na tom, že nejaké našli. Predstavte si, koľko práce budú musieť vaše vlastné tímy AI preskúmať, aby preskúmali žiadosti o odmenu, preskúmali platnosť každého z nich a potom sa potenciálne obrátili s lovcom odmien tam a späť o to, či bolo zlato objavené alebo nie.

Niektorí by tvrdili, že je to ďalší dôvod, prečo to celé urobiť sami. Môžete nevyhnutne zistiť, že vec s odmenou je väčší problém, ako by stála.

Tu je ďalšia otázka na zamyslenie. Ako budú lovci odmien vedieť, ako vyzerá zaujatosť AI? V podstate bez zdania toho, čo treba hľadať, by sa o akejkoľvek lesklej skale dalo tvrdiť, že predstavuje zaujatosť AI vo vnímanej zlatej bani AI, ktorá sa razí.

Predpokladajme, že v časoch starého západu ste ponúkli odmenu za zajatie Billyho Kida (slávneho psanca). Ak ste tak urobili a nepridali ste obrázok toho, ako Billy vyzeral, predstavte si množstvo lovcov odmien, ktorí by mohli zatiahnuť do kancelárie šerifa niekoho, o kom dúfali alebo si mysleli, že je Billy the Kid. Môžete byť zaplavení falošnými Billyho. To je zlé, pretože by ste sa pravdepodobne museli pozrieť na každého z nich, klásť skúmavé otázky a pokúsiť sa zistiť, či ten človek bol naozaj Billy alebo nie.

Ide o to, že ak chcete nastaviť odmenu za zaujatosti AI, bolo by rozumné pokúsiť sa objasniť, z čoho podľa vás skreslenie AI pozostáva. Vyžaduje si to kalibráciu typu Zlatovláska. Nechcete byť tak obmedzujúci, aby lovci odmien prehliadali zaujatosti AI len preto, že nezodpovedajú vašej stanovenej definícii, a ani nechcete, aby kričali „Eureka!“ pri každom kúsku zaujatosti AI, ktorú náhodou nájdu.

Budete potrebovať správnu rovnováhu Zlatovlásky v tom, z čoho sa skladajú predsudky AI, a teda poskytnúť pokiaľ možno jasné smery.

Veľa z tohto lovu odmien AI sa zameria na systémy strojového učenia (ML) a hlbokého učenia (DL) založené na AI. Dáva to zmysel, pretože nástup všadeprítomnosti ML/DL narastá a navyše sa zdá, že má niektoré z najpravdepodobnejších výziev spočívajúcich v zahrnutí neprimeraných skreslení AI.

Títo výskumníci identifikujú, aké výrazné môže byť úsilie o odmeňovanie zaujaté umelou inteligenciou, najmä v kontexte ML/DL: „Postupom času si softvérové ​​a bezpečnostné komunity vyvinuli „odmeny za chyby“ v snahe zmeniť podobnú dynamiku medzi vývojármi systémov a ich kritikmi. (alebo hackermi) smerom k interaktívnejším a produktívnejším cieľom. Dúfame, že zámerným pozvaním externých strán, aby našli softvérové ​​alebo hardvérové ​​chyby vo svojich systémoch, a často poskytovaním peňažných stimulov na to, sa vyvinie zdravší a rýchlejšie reagujúci ekosystém. Je prirodzené, že komunita ML uvažuje o podobnom prístupe „odmeny za zaujatosť“ k včasnému objaveniu a oprave modelov a systémov so zaujatosťou alebo iným nežiaducim správaním. Namiesto toho, aby našli chyby v softvéri, sú externé strany vyzvané, aby našli predsudky – napríklad (demografické alebo iné) podskupiny vstupov, na ktorých trénovaný model nedosahuje výsledky – a sú za to odmenené“ (v dokumente „Algorithmic Framework for Bias Bounties“ od Ira Globus-Harris, Michaela Kearnsa a Aarona Rotha).

Vo výskumnej práci autori načrtávajú navrhovaný prístup k tomu, aké druhy predsudkov AI môžu lovci odmien hľadať. Existuje aj náznak, ako posúdiť nároky lovcov odmien spojených s údajnými zaujatosťami AI, ktoré sa takto objavili. Podľa mojich predchádzajúcich poznámok tu, je pravdepodobné, že dostanete falošné nároky a budete musieť oddeliť AI zaujatosť pšenice od pliev.

Predtým, ako sa dostaneme k mäsu a zemiakom o divokých a vlnených úvahách, ktoré sú základom lovu zaujatosti AI, stanovme si niekoľko ďalších základov o hlboko integrálnych témach. Musíme sa krátko ponoriť do etiky AI a najmä do nástupu strojového učenia (ML) a hlbokého učenia (DL).

Možno ste si matne uvedomovali, že jeden z najhlasnejších hlasov v súčasnosti v oblasti AI a dokonca aj mimo oblasti AI pozostáva z volania po väčšej podobe Etickej AI. Poďme sa pozrieť na to, čo znamená odvolávať sa na etiku umelej inteligencie a etickú umelú inteligenciu. Okrem toho preskúmame, čo mám na mysli, keď hovorím o strojovom učení a hĺbkovom učení.

Jeden konkrétny segment alebo časť etiky umelej inteligencie, ktorá si získala veľkú pozornosť médií, pozostáva z umelej inteligencie, ktorá sa prejavuje nežiaducimi zaujatosťami a nerovnosťami. Možno ste si vedomí toho, že keď sa rozbehla najnovšia éra AI, došlo k obrovskému výbuchu nadšenia pre to, čo niektorí dnes nazývajú AI pre dobro. Bohužiaľ, v pätách tohto tryskajúceho vzrušenia sme začali byť svedkami AI pre zlé. Napríklad sa ukázalo, že rôzne systémy na rozpoznávanie tváre založené na AI obsahujú rasové a rodové predsudky, o ktorých som diskutoval na odkaz tu.

Snahy brániť sa AI pre zlé aktívne prebiehajú. Okrem hlučného právne v snahe o zvládnutie previnenia existuje aj výrazný tlak na prijatie etiky AI, aby sa napravila odpornosť AI. Myšlienka je taká, že by sme mali prijať a podporiť kľúčové etické princípy AI pre vývoj a zavádzanie AI, aby sme podkopali AI pre zlé a súčasne ohlasovať a podporovať preferované AI pre dobro.

V súvislosti s tým som zástancom pokusu použiť AI ako súčasť riešenia problémov s AI a bojovať s ohňom ohňom týmto spôsobom myslenia. Mohli by sme napríklad vložiť etické komponenty AI do systému AI, ktorý bude monitorovať, ako zvyšok AI robí veci, a tak potenciálne zachytiť v reálnom čase akékoľvek diskriminačné snahy, pozri moju diskusiu na odkaz tu. Mohli by sme mať aj samostatný systém AI, ktorý funguje ako typ monitora etiky AI. Systém AI slúži ako dozorca na sledovanie a zisťovanie, kedy sa iná AI dostane do neetickej priepasti (pozri moju analýzu takýchto schopností na odkaz tu).

O chvíľu sa s vami podelím o niekoľko základných princípov, ktoré sú základom etiky AI. Takýchto zoznamov sa tu a tam pohybuje veľa. Dalo by sa povedať, že zatiaľ neexistuje jednotný zoznam univerzálnej príťažlivosti a súbežnosti. To je tá nešťastná správa. Dobrou správou je, že aspoň existujú ľahko dostupné zoznamy etiky AI a bývajú dosť podobné. Celkovo to naznačuje, že formou rozumnej konvergencie svojho druhu nachádzame cestu k všeobecnej zhode toho, z čoho pozostáva etika umelej inteligencie.

Najprv si stručne popíšme niektoré z celkových etických zásad AI, aby sme ilustrovali, čo by malo byť životne dôležitým faktorom pre každého, kto vytvára, využíva alebo používa AI.

Napríklad, ako uvádza Vatikán v Rím vyzýva na etiku AI a ako som sa podrobne venoval odkaz tuToto je ich identifikovaných šesť základných etických princípov AI:

  • transparentnosť: V zásade musia byť systémy AI vysvetliteľné
  • začlenenie: Potreby všetkých ľudských bytostí musia byť brané do úvahy, aby z toho mohol mať úžitok každý, a aby všetkým jednotlivcom mohli byť ponúknuté najlepšie možné podmienky na sebavyjadrenie a rozvoj.
  • odpovedá: Tí, ktorí navrhujú a nasadzujú používanie AI, musia postupovať zodpovedne a transparentne
  • nestrannosť: Nevytvárajte ani nekonajte podľa zaujatosti, čím si zabezpečíte spravodlivosť a ľudskú dôstojnosť
  • Spoľahlivosť: Systémy AI musia byť schopné spoľahlivo fungovať
  • Bezpečnosť a súkromie: Systémy AI musia fungovať bezpečne a rešpektovať súkromie používateľov.

Ako uviedlo americké ministerstvo obrany (DoD) vo svojom Etické princípy používania umelej inteligencie a ako som sa podrobne venoval odkaz tuToto je ich šesť základných etických princípov AI:

  • Zodpovedný: Personál ministerstva obrany bude uplatňovať primeranú úroveň úsudku a starostlivosti, pričom zostane zodpovedný za vývoj, nasadenie a používanie schopností AI.
  • Spravodlivé: Ministerstvo podnikne premyslené kroky, aby minimalizovalo neúmyselné skreslenie schopností AI.
  • Vysledovateľné: Schopnosti umelej inteligencie ministerstva sa vyvinú a rozmiestnia tak, aby príslušní pracovníci primerane rozumeli technológiám, vývojovým procesom a prevádzkovým metódam použiteľným na schopnosti umelej inteligencie, vrátane transparentných a kontrolovateľných metodík, zdrojov údajov a návrhových postupov a dokumentácie.
  • spoľahlivosť: Schopnosti umelej inteligencie ministerstva budú mať explicitné, dobre definované využitie a bezpečnosť, zabezpečenie a efektívnosť takýchto schopností bude predmetom testovania a zabezpečenia v rámci týchto definovaných použití počas celého životného cyklu.
  • Riaditeľné: Ministerstvo navrhne a skonštruuje schopnosti AI tak, aby plnili zamýšľané funkcie, pričom majú schopnosť odhaliť a vyhnúť sa neúmyselným následkom a schopnosť odpojiť alebo deaktivovať nasadené systémy, ktoré prejavujú neúmyselné správanie.

Diskutoval som aj o rôznych kolektívnych analýzach etických princípov AI, vrátane toho, že som sa zaoberal súborom navrhnutým výskumníkmi, ktorí preskúmali a zhrnuli podstatu mnohých národných a medzinárodných etických zásad AI v článku s názvom „Globálna krajina etických zásad AI“ (zverejnená v príroda), a ktoré moje pokrytie skúma na odkaz tu, čo viedlo k tomuto kľúčovému zoznamu:

  • Priehľadnosť
  • Spravodlivosť a spravodlivosť
  • Neškodnosť
  • zodpovednosť
  • súkromia
  • dobročinnosť
  • Sloboda a autonómia
  • Verte
  • Udržateľnosť
  • dôstojnosť
  • Solidarita

Ako môžete priamo uhádnuť, pokúsiť sa určiť špecifiká, ktoré sú základom týchto princípov, môže byť mimoriadne ťažké. O to viac, snaha premeniť tieto široké princípy na niečo úplne hmatateľné a dostatočne podrobné na to, aby sa dali použiť pri vytváraní systémov AI, je tiež tvrdým orieškom. Celkovo je ľahké mávnuť rukou nad tým, čo sú to etické predpisy AI a ako by sa mali vo všeobecnosti dodržiavať, zatiaľ čo v kódovaní AI je oveľa komplikovanejšia situácia, keď musí ísť o skutočnú gumu, ktorá sa stretáva s vozovkou.

Princípy AI etiky majú využívať vývojári AI spolu s tými, ktorí riadia snahy o vývoj AI, a dokonca aj tí, ktorí v konečnom dôsledku nasadzujú a vykonávajú údržbu systémov AI. Všetky zainteresované strany počas celého životného cyklu vývoja a používania AI sa berú do úvahy v rámci dodržiavania zavedených noriem Etickej AI. Toto je dôležitý prvok, pretože zvyčajný predpoklad je, že „iba kóderi“ alebo tí, ktorí programujú AI, podliehajú dodržiavaniu etických pojmov AI. Ako už bolo spomenuté, na vymyslenie a nasadenie AI je potrebná dedina, v ktorej sa celá dedina musí vyznať a dodržiavať etické predpisy AI.

Uistime sa tiež, že sme na rovnakej stránke o povahe dnešnej AI.

Dnes neexistuje žiadna umelá inteligencia, ktorá by bola vnímavá. Toto my nemáme. Nevieme, či bude vnímajúca AI možná. Nikto nemôže vhodne predpovedať, či dosiahneme vnímajúcu AI, ani to, či sa vnímajúca AI nejakým zázrakom spontánne objaví vo forme výpočtovej kognitívnej supernovy (zvyčajne označovanej ako singularita, pozri moje pokrytie na odkaz tu).

Typ AI, na ktorý sa zameriavam, pozostáva z necitlivej AI, ktorú máme dnes. Ak by sme chceli divoko špekulovať o cítiaci AI, táto diskusia by sa mohla uberať radikálne iným smerom. Vnímajúca AI by mala mať ľudské kvality. Mali by ste zvážiť, že vnímajúca AI je kognitívnym ekvivalentom človeka. Navyše, keďže niektorí špekulujú, že by sme mohli mať superinteligentnú AI, je možné, že takáto AI by mohla byť inteligentnejšia ako ľudia (pre môj prieskum superinteligentnej AI ako možnosti pozri pokrytie tu).

Nechajme veci viac pri zemi a zvážme dnešnú výpočtovú necitlivú AI.

Uvedomte si, že dnešná AI nie je schopná „myslieť“ akýmkoľvek spôsobom na rovnakej úrovni ako ľudské myslenie. Keď komunikujete s Alexou alebo Siri, konverzačné schopnosti sa môžu zdať podobné ľudským schopnostiam, ale realita je taká, že sú výpočtové a chýba im ľudské poznanie. Najnovšia éra AI vo veľkej miere využíva strojové učenie (ML) a hlboké učenie (DL), ktoré využívajú porovnávanie výpočtových vzorov. To viedlo k systémom AI, ktoré vyzerajú ako ľudia. Medzitým dnes neexistuje žiadna umelá inteligencia, ktorá by mala zdanie zdravého rozumu, ani žiadny z kognitívnych zázrakov robustného ľudského myslenia.

ML/DL je forma porovnávania výpočtových vzorov. Zvyčajný prístup je taký, že zhromažďujete údaje o úlohe rozhodovania. Dáta vložíte do počítačových modelov ML/DL. Tieto modely sa snažia nájsť matematické vzorce. Po nájdení takýchto vzorov, ak sa nájdu, systém AI potom použije tieto vzory pri stretnutí s novými údajmi. Po predložení nových údajov sa na vyvodenie aktuálneho rozhodnutia použijú vzory založené na „starých“ alebo historických údajoch.

Myslím, že viete hádať, kam to smeruje. Ak ľudia, ktorí sa rozhodovali podľa vzoru, začlenili do seba nepriaznivé predsudky, je pravdepodobné, že údaje to odrážajú jemným, ale významným spôsobom. Zhoda výpočtových vzorov Machine Learning alebo Deep Learning sa jednoducho pokúsi zodpovedajúcim spôsobom matematicky napodobniť údaje. Neexistuje žiadne zdanie zdravého rozumu alebo iných vnímavých aspektov modelovania vytvoreného AI ako takého.

Okrem toho si vývojári AI nemusia uvedomiť, čo sa deje. Tajomná matematika v ML/DL môže sťažiť odhalenie teraz skrytých predsudkov. Oprávnene by ste dúfali a očakávali, že vývojári AI budú testovať potenciálne skryté predsudky, hoci je to zložitejšie, ako by sa mohlo zdať. Existuje solídna šanca, že aj pri relatívne rozsiahlom testovaní budú v modeloch zhody vzorov ML/DL stále zakomponované odchýlky.

Do istej miery by ste mohli použiť známe alebo neslávne známe príslovie o odpadkoch do odpadu. Ide o to, že je to skôr podobné zaujatostiam – in, ktoré sa zákerne naplnia, keď sa predsudky ponoria do AI. Algoritmus rozhodovania (ADM) AI je axiomaticky zaťažený nerovnosťami.

Nie dobré.

Vráťme sa teraz k téme AI bias hunting.

Pre tých z vás, ktorí zvažujú snahu o lov na základe zaujatosti AI, tu je mojich odporúčaných sedem kľúčových krokov, ako najlepšie postupovať:

1) posúdiť. Posúďte vhodnosť úsilia o odmenu za zaujatosť AI pre vaše okolnosti a podľa vašich systémov AI

2) dizajn. Navrhnite vhodný prístup AI zaujatého lovu odmien

3) Realizovať. Implementujte a zverejňujte svoje snahy o odmenu za zaujatosť AI

4) Pole. Požiadajte o odmenu za predsudky AI a podľa toho spracujte

5) Opraviť. Opravte alebo upravte svoju AI podľa týchto objavených expozícií skreslenia AI

6) nastaviť. Podľa potreby upravte lov odmien AI

7) prestaňte. Prerušte AI zaujatosť odmeny, keď už nie je potrebná

V mojej sérii vyššie uvedených krokov uvádzam, že pravdepodobne budete chcieť opraviť alebo upraviť svoju AI na základe uistenia sa, že tvrdené skreslenie AI v skutočnosti existuje vo vašom systéme AI. Toto dáva veľký zmysel. Takmer určite by ste chceli podporiť všetky zistené predsudky AI. Myslite na právne (a etické) dôsledky, ak tak neurobíte. Jedna vec je tvrdiť, že ste nevedeli, že existuje zaujatosť AI, a preto ste jej umožnili jej existenciu, zatiaľ čo je oveľa chúlostivejšie mať zaznamenané, že ste boli upozornení na zaujatosť AI a nič ste s tým neurobili.

Povaha a stupeň opravy alebo úpravy AI by samozrejme záviseli od toho, aké významné boli skreslenia AI a ako hlboko sú problémy zakorenené. Ak budete mať šťastie, možno skromné ​​množstvo zmien v AI napraví záležitosti. Ďalším potenciálom je, že možno budete musieť urobiť úplné prepísanie AI. V prípade umelej inteligencie typu ML/DL si to môže vyžadovať návrat na rysovaciu dosku a začať odznova s ​​úplne novým súborom údajov a vyčisteným modelom ML/DL. Diskutoval som o nástupe degorgementu AI alebo deštrukcie AI ako potenciálneho právneho prostriedku proti nechutnej AI, pozri odkaz tu.

Jedna otázka na zamyslenie je, či by ste chceli, aby lovci odmien urobili viac, než len identifikovali existenciu zaujatosti AI. Môžete napríklad osladiť odmenu tým, že označíte, že navrhované opravy sú tiež vítané. Zaujatosť AI nájdených lovcom odmien môže byť vyplatená jedna uvedená odmena alebo cena. Ak môže lovec odmien ponúknuť aj životaschopného fixné na zaujatosť AI im potom môže byť udelená dodatočná odmena.

Niektorí tvrdia, že je to príliš ďaleko. Hovorí sa, že by ste mali udržať lovcov odmien AI zameraných výlučne na hľadanie predsudkov AI. Vytvoríte množstvo nežiaducich nepriaznivých následkov tým, že ich vyzvete, aby tiež navrhli opravy. Udržujte veci jednoduché. Cieľom je získať čo najviac ďalších pohľadov na objavovanie predsudkov AI, aby ste sa mohli rozhodnúť, čo robiť ďalej. Nekalte vody.

Trnitý aspekt, ktorý je potrebné zistiť, zahŕňa veľkosť odmeny alebo ceny pre lovcov odmien, ktorí skutočne objavia predsudky AI. Chcete, aby bola odmena demonštratívna. Bez dostatočne vysokej odmeny nezískate veľa lovcov odmien alebo nebudú obzvlášť horliví hľadať predsudky AI vo vašich systémoch AI. Namiesto toho by sa mohli sústrediť na iné snahy o odmenu za zaujatosť AI.

Okrem toho, ako už bolo spomenuté, chcete sa pokúsiť potlačiť nutkanie lovcov odmien premeniť svoje objavy zaujatosti AI na iné formy zlata. Ak sa odmena zdá byť mizerná, môže to nahnevať lovcov odmien, aby hľadali iné vyššie odmeny. Mohli by voči vám zaujať prístup ransomvéru. Mohli by vyhlásiť, že majú šťavnaté zaujatie AI, o ktorom by sa konkurent rád dozvedel a mohol by ho použiť proti vašej firme tým, že bude propagovať, že zaujatosť AI existuje vo vašej AI. Preto predajú objavenú AI zaujatosť tomu, kto ponúkne najvyššiu cenu. A tak ďalej.

Jeden predpokladá, že ak nastavíte odmenu na extrémne vysoký rozsah, koledujete si aj o potenciálne problémy. To by mohlo prilákať všetky druhy bláznivých lovcov odmien. Tí by zase mohli zaplaviť sociálne médiá hmlistými tvrdeniami, že našli množstvo predsudkov AI, robia to pre svoju vlastnú propagáciu a bez toho, aby v skutočnosti zachytili akékoľvek predsudky AI. V istom zmysle vaša zvýšená odmena neúmyselne rozžiari svetlo na vašu AI a podnieti množstvo neotesaných molí, aby boli zhubne priťahované žiariacim svetelným lúčom.

Ďalšia úvaha sa týka dostupnosti vašej AI.

Ak chcete povoliť možnosť lovu odmien AI, lovci odmien musia dostatočne získať prístup k vašej AI. Ak budú úplne zablokovaní, nebudú mať veľa šťastia pri hľadaní predsudkov AI. Nechcete sa však vzdať svojej ochrany kybernetickej bezpečnosti, pretože by to mohlo úplne ohroziť váš systém AI.

Môžete sa pokúsiť nechať lovcov odmien podpísať rôzne právne záväzné vyhlásenia a potom im poskytnúť potrebný prístup. Niektorým lovcom odmien sa takýto prístup nebude páčiť. Ich názor je, že budú robiť len to, čo im umožňuje akákoľvek verejne dostupná a otvorená cesta. Sú to slobodní jedinci, ako to bolo, a nemajú radi, keď sú osedlaní. Prinútite ich, aby podpísali zastrašujúce právne dokumenty, spôsobí, že mnohí z nich sa vyhnú hľadaniu zaujatosti AI vo vašej AI. Alebo sa môžu rozčuľovať nad vašou právnickou rukavicou a rozhodnúť sa, že uvidia, čo môžu nájsť verejnými prostriedkami, a urobia tak s možno prenikavým nutkaním ukázať vám, aký skutočne ste zraniteľný.

Mám ďalší uhol, z ktorého sa ti možno zatočí hlava.

Nápaditý lovec umelej inteligencie sa môže rozhodnúť navrhnúť systém umelej inteligencie, ktorý dokáže preskúmať vašu umelú inteligenciu a možno odhaliť predsudky AI vo vašej AI. Toto je výrobca nástrojov, ktorý sa rozhodol vyrobiť nástroj na vykonanie úlohy namiesto toho, aby sám vykonával manuálnu prácu. Namiesto namáhavého skúmania vašej AI trávi lovec odmien s AI svoj čas vymýšľaním nástroja AI, ktorý robí to isté. Potom použijú nástroj AI na vašej AI. Krása je tiež v tom, že pravdepodobne môžu znova použiť nástroj AI na kohokoľvek iného, ​​kto tiež ponúka možnosť lovu odmien na ich príslušnej AI.

Viem, čo si asi myslíš. Ak je možné navrhnúť nástroj AI na preskúmanie skreslenia AI, výrobca AI, ktorý je predmetom skúmania skreslenia AI, by mal takýto nástroj AI vytvoriť alebo si ho kúpiť pre vlastnú potrebu. Teoreticky potom nemusia bojovať s celým karnevalom lovcov odmien. Stačí použiť AI na nájdenie ich predsudkov AI.

Áno, toto je niečo, čo môžete očakávať, že sa postupne objaví. Medzitým bude základ tohto úsilia pravdepodobne pozostávať z vývojárov AI, ktorí budú vykonávať odmenu. Na podporu svojho úsilia môžu použiť rôzne nástroje, ale v blízkej budúcnosti je nepravdepodobné, že jednoducho bezmyšlienkovito nastavia nástroj AI na automatiku a zdriemnu si tak, aby za nich tento nástroj robil všetku zaujatosť AI.

Ešte tam nie sme.

Stavil by som sa, že v tomto bode tejto závažnej diskusie túžite po niekoľkých názorných príkladoch, ktoré by mohli ukázať túto tému. Existuje špeciálny a určite populárny súbor príkladov, ktoré sú môjmu srdcu blízke. Vidíte, ako odborník na AI vrátane etických a právnych dôsledkov ma často žiadajú, aby som identifikoval realistické príklady, ktoré predstavujú dilemy etiky AI, aby bolo možné ľahšie pochopiť trochu teoretickú povahu tejto témy. Jednou z najviac evokujúcich oblastí, ktorá názorne prezentuje tento etický problém AI, je príchod skutočne samoriadiacich áut založených na AI. Bude to slúžiť ako praktický príklad použitia alebo príklad na rozsiahlu diskusiu na túto tému.

Tu je potom pozoruhodná otázka, ktorá stojí za zamyslenie: Osvetlí príchod skutočne samoriadiacich áut založených na AI niečo o využívaní AI zaujatého lovu odmien, a ak áno, čo to predstavuje?

Dovoľte mi chvíľu rozbaliť otázku.

Po prvé, všimnite si, že v skutočne samoriadiacom aute nie je žiadny ľudský vodič. Majte na pamäti, že skutočne samoriadiace autá sú poháňané systémom AI. Nie je potrebný ľudský vodič za volantom, ani neexistuje ustanovenie, aby vozidlo riadil človek. Pre moje rozsiahle a neustále pokrytie autonómnych vozidiel (AV) a najmä autonómnych áut viď odkaz tu.

Rád by som ďalej objasnil, čo sa myslí, keď hovorím o skutočne samoriadiacich autách.

Porozumenie úrovniam samoriadiacich automobilov

Pre vysvetlenie, skutočne samoriadiace autá sú tie, kde AI riadi auto úplne sama a pri riadení nie je žiadna asistencia človeka.

Tieto vozidlá bez vodiča sa považujú za úroveň 4 a úroveň 5 (pozri moje vysvetlenie na tento odkaz tu), zatiaľ čo auto, ktoré vyžaduje, aby sa na jazdnom úsilí podieľal ľudský vodič, sa zvyčajne považuje za úroveň 2 alebo úroveň 3. Autá, ktoré sa podieľajú na úlohe riadenia, sú opísané ako poloautonómne a zvyčajne obsahujú rôzne automatizované doplnky, ktoré sa označujú ako ADAADA
S (pokročilé asistenčné systémy vodiča).

Na úrovni 5 ešte nie je skutočné samoriadiace auto a ešte ani nevieme, či to bude možné dosiahnuť, ani ako dlho bude trvať, kým sa tam dostaneme.

Medzitým sa úsilie úrovne 4 postupne pokúša získať určitú trakciu podstupovaním veľmi úzkych a selektívnych testov na verejných cestách, hoci existuje polemika o tom, či by toto testovanie malo byť povolené ako také (v experimente sme všetci pokusnými králikmi na život a na smrť). ktoré sa odohrávajú na našich diaľniciach a vedľajších cestách, niektorí tvrdia, pozri moje spravodajstvo na tento odkaz tu).

Keďže poloautonómne automobily si vyžadujú vodiča, prijatie týchto typov automobilov sa nebude výrazne líšiť od riadenia konvenčných vozidiel, takže o tejto téme nie je samo o sebe veľa nových (ako vidíte, uvidíte) za okamih sa spravidla použijú nasledujúce body).

V prípade autonómnych automobilov je dôležité, aby verejnosť musela byť upozornená na rušivý aspekt, ktorý sa objavuje v poslednej dobe, a to napriek tomu, že napriek tým vodičom, ktorí neustále vysielajú svoje videá, ktoré zaspávajú za volantom automobilu úrovne 2 alebo 3 , musíme sa vyhnúť tomu, aby sme boli uvedení do omylu v presvedčenie, že vodič môže odvádzať svoju pozornosť od úlohy pri riadení čiastočne autonómneho vozidla.

Ste zodpovednou stranou za jazdné vlastnosti vozidla bez ohľadu na to, do akej miery by sa automatizácia mohla hodiť na úroveň 2 alebo úroveň 3.

Samoriadiace autá a AI zaujatý lov odmien

Pri vozidlách s vlastným riadením na úrovni 4 a 5 sa do úlohy vedenia vozidla nebude podieľať ľudský vodič.

Všetci cestujúci budú cestujúcimi.

AI robí jazdu.

Jedným z aspektov, o ktorých je potrebné okamžite diskutovať, je skutočnosť, že AI zapojená do dnešných systémov riadenia AI nie je vnímavá. Inými slovami, AI je celkom kolektív počítačového programovania a algoritmov a je nepochybne neschopný uvažovať rovnakým spôsobom ako ľudia.

Prečo je tento zvýšený dôraz na to, aby AI nebola vnímavá?

Pretože by som chcel zdôrazniť, že keď diskutujem o úlohe jazdného systému AI, nepripisujem AI ľudské vlastnosti. Uvedomte si, že v dnešnej dobe pretrváva nebezpečná tendencia k antropomorfizácii AI. Ľudia v podstate priraďujú dnešnému UI sentiment podobný človeku, a to aj napriek nepopierateľnému a nespochybniteľnému faktu, že zatiaľ taký AI neexistuje.

S týmto objasnením si môžete predstaviť, že systém riadenia umelej inteligencie nebude natívne nejako „vedieť“ o aspektoch riadenia. Vedenie vozidla a všetko, čo k tomu patrí, bude potrebné programovať ako súčasť hardvéru a softvéru samostatne riadeného automobilu.

Poďme sa ponoriť do nespočetného množstva aspektov, ktoré sa budú hrať na túto tému.

Po prvé, je dôležité si uvedomiť, že nie všetky autá s umelou inteligenciou sú rovnaké. Každá automobilka a technologická firma s vlastným pohonom pristupuje k navrhovaniu samoriadiacich áut. Preto je ťažké urobiť rozsiahle vyhlásenia o tom, čo AI riadiace systémy urobia alebo neurobia.

Okrem toho, kedykoľvek sa uvádza, že riadiaci systém AI nerobí konkrétne veci, neskôr to môžu predbehnúť vývojári, ktorí počítač v skutočnosti naprogramujú tak, aby to urobil. Krok za krokom sa systémy riadenia AI postupne vylepšujú a rozširujú. Existujúce obmedzenie dnes už nemusí existovať v budúcej iterácii alebo verzii systému.

Dúfam, že to poskytuje dostatočnú litániu upozornení na podloženie toho, čo sa chystám povedať.

Vo svojich stĺpcoch som už dlho diskutoval o použití lovcov odmien zameraných na chyby v oblasti autonómnych vozidiel a samoriadiacich áut. Tento prístup sa skutočne uskutočnil v tomto výklenku. O tom, či je to dobrý nápad alebo nie, sa vedú obvyklé debaty. Úsilie malo zvyčajne obmedzený charakter, často relatívne tiché.

Podobná diskusia môže nastať, keď sa zameranie presunie skôr na hľadanie predsudkov AI, než na hľadanie systémových chýb ako takých. Niektorí naznačujú, že je to prekliate, ak to robíte, prekliate, ak si nelámete hlavu.

Tu je dôvod.

Po prvé, aby bolo jasné, existuje mnoho spôsobov, akými budú autonómne vozidlá a autá s vlastným riadením podliehať skresleniu AI, pozri moje pokrytie na odkaz tu a odkaz tu, aby sme vymenovali aspoň niektoré. Výrobcovia automobilov a automobilky s vlastným riadením by sa zdali rozumné pokúsiť sa zabrániť tomu, aby sa tieto zaujatosti AI objavili v ich systémoch AI. Právna a etická búrka proti takýmto firmám bude nepochybne intenzívna.

Je v tomto konkrétnom kontexte vhodným prístupom použitie snahy o odmeňovanie zaujatej umelou inteligenciou?

Jednou z odpovedí je, že áno, bude to užitočné a poskytne to množstvo „bezplatných“ sád nových očí, aby ste sa pokúsili zachytiť akékoľvek predsudky zabudované AI samoriadiaceho auta alebo podobne. Väčšina vývojárov AI, ktorí vyrábajú samoriadiace autá, je zaneprázdnená tvorbou AI, ktorá dokáže bezpečne riadiť auto z bodu A do bodu B. Sú zaujatí touto základnou schopnosťou a nemajú ani čas, ani pozornosť voči žiadnym predsudkom AI, ktoré by mohli byť niekde inde. ich AI.

Druhou odpoveďou je, že nie, povoleniu lovu odmien za autonómne vozidlá a autá s vlastným pohonom na akomkoľvek základe, či už kvôli chybám alebo zaujatostiam AI, by sa malo rozhodne vyhýbať. Argumentom je, že tieto vozidlá a ich AI sú kalibru na život a na smrť. Zásahy s AI akýmkoľvek spôsobom by mohli byť pre AI zničujúce a ovplyvniť to, čo robí systém riadenia AI.

Protiargumentom k tomuto poslednému bodu je, že lovci odmien by nemali byť schopní zmeniť AI, ktorú skúmajú. Nehrozí teda, že by sa motali s AI a spôsobili, že sa z AI v tomto kontexte zrazu stane pobláznený systém riadenia AI. Lovci odmien majú prístup iba na čítanie. Dovoliť im ísť ďalej by bola veľká hlúposť a obrovská chyba.

Protiargumentom k tomuto protiargumentu je, že ak dovolíte a povzbudíte lovcov odmien, aby preskúmali vašu AI, celá záležitosť sa stane komplikovanou. Títo lovci odmien by mohli prísť na spôsoby, ako využiť nájdené chyby alebo predsudky. Tieto exploity zase môžu byť na nevyvážené účely. Bolo by lepšie, keby ste do svojho domu takpovediac nepozývali „lupičov“. Akonáhle vylúčia kĺb, budete mať v konečnom dôsledku veľké problémy.

Pre tých, ktorí majú systémy AI s veľkosťou menšou ako život alebo smrť, je presvedčenie, že dôsledky nájazdu na lov odmien, ktorý sa nepodarí, sú oveľa menej riskantné. Možno tak. Na druhej strane, ak firma naliala svoje peniaze do systému AI, ktorý sa lovcom odmien podarí uzurpovať, môžete predpokladať, že škody na povesti a iné potenciálne škody budú stále bolieť.

Pokiaľ ide o AI zaujatý lov odmien, neexistuje žiadny obed zadarmo.

Zatiaľ rýchla poznámka na záver.

Keď bol počas Starého západu hľadaný notoricky známy psanec Jesse James, bol vytlačený plagát „Wanted“, ktorý ponúkal odmenu 5,000 XNUMX dolárov za jeho zajatie (s nápisom „mŕtvy alebo živý“). Na tú dobu to bola dosť veľká suma peňazí. Jeden z členov jeho vlastného gangu sa rozhodol Jesseho zastreliť a získať odmenu. Myslím, že to ukazuje, aká účinná môže byť odmena.

Bude používanie AI zaujatých lovcov odmien dobrá alebo zlá vec?

Ak sa rozhodnete začať s pokusom lovca odmien AI, navrhol by som, aby ste mali oči dokorán a vždy sa pozerali cez rameno. Je to rozumné pre vás a vašu AI. Nikdy neviete, čo sa môže stať, vrátane toho, že zákerný lovec odmien nejakým spôsobom tajne vloží do vašej AI zaujatosť AI a vykričí do sveta, že vo vašej AI našiel bezohľadné zaujatie AI. Možno to urobili v drzom a veľkolepom pokuse o získanie odmeny a vyhlásenia sa za hrdinu, ktorý v podstate dostal vychvaľovaného Jesseho Jamesa.

Keď sa nad tým zamyslím, vnímajúcej umelej inteligencii sa pravdepodobne nebude páčiť myšlienka znepokojujúceho ustanovenia o mŕtvom alebo živom, ako by sa dalo len ťažko špekulovať.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautious-assessing-with-offering-ai-biases-hunting-bounties-to-catch-and-nab- eticky-zlé-plne-autonómne-systémy-je-opatrné-alebo-márne/