Etika AI Šokujúce odhalenie, že školenie AI, aby bola toxická alebo neobjektívna, by mohlo byť prospešné, a to aj pre autonómne autá s vlastným riadením

Tu je stará veta, ktorú ste už určite počuli.

Človek potrebuje poznať jedného.

Možno si neuvedomujete, že toto je výraz, ktorý možno vysledovať do začiatku 1900. storočia a ktorý sa zvyčajne používal, keď sa hovorilo o previnilcoch (iné variácie frázy siahajú ešte ďalej, napríklad do 1600. storočia). Príklad toho, ako by sa tento výrok mohol použiť, zahŕňa predstavu, že ak chcete chytiť zlodeja, musíte na to použiť zlodeja. Toto ukazuje tvrdenie, že človek potrebuje poznať jedného. Mnoho filmov a televíznych relácií využilo túto užitočnú múdru múdrosť a často vykresľovalo, že jediným životaschopným spôsobom, ako chytiť podvodníka, je najať rovnako skorumpovaného podvodníka, aby prenasledoval páchateľa.

Pri preraďovaní prevodových stupňov by niektorí mohli využiť rovnakú logiku, aby tvrdili, že vhodným spôsobom, ako rozlíšiť, či niekto stelesňuje neprimerané predsudky a diskriminačné presvedčenia, by bolo nájsť niekoho, kto už má takéto tendencie. Je pravdepodobné, že osoba, ktorá je už naplnená predsudkami, bude schopná ľahšie vycítiť, že tento druhý človek je tiež až po okraj naplnený toxicitou. Opäť je potrebné, aby človek vedel, že jeden je otvorenou mantrou.

Vaša počiatočná reakcia na možnosť použitia zaujatej osoby na vylúčenie inej zaujatej osoby môže byť skeptická a nedôverčivá. Nemôžeme prísť na to, či má niekto nepriaznivé zaujatosti tým, že ich len preskúmame a nebudeme sa musieť uchýliť k nájdeniu niekoho podobného? Zdalo by sa čudné zámerne sa snažiť odhaliť niekoho, kto je zaujatý, s cieľom odhaliť ostatných, ktorí sú tiež toxicky zaujatí.

Myslím, že to čiastočne závisí od toho, či ste ochotný akceptovať domnelý refrén, ktorý je potrebné poznať. Všimnite si, že to neznamená, že jediný spôsob, ako chytiť zlodeja, vyžaduje, aby ste výlučne a vždy využívali zlodeja. Mohlo by sa zdať, že namietate, že toto je len dodatočná cesta, ktorú možno náležite zvážiť. Možno ste niekedy ochotní pobaviť sa o možnosti využiť zlodeja na dolapenie zlodeja, zatiaľ čo iné okolnosti môžu z toho urobiť nevyspytateľnú taktiku.

Na správne nastavenie použite správny nástroj, ako sa hovorí.

Teraz, keď som uviedol tieto základy, môžeme pristúpiť k možno znepokojujúcej a zdanlivo šokujúcej časti tohto príbehu.

Ste pripravení?

Oblasť AI aktívne presadzuje rovnaké pravidlo, ktoré niekedy vyžaduje, aby sme ho poznali, najmä v prípade snahy odhaliť AI, ktorá je zaujatá alebo koná diskriminačným spôsobom. Áno, mysľou je, že by sme mohli zámerne chcieť navrhnúť AI, ktorá je úplne a nehanebne neobjektívna a diskriminačná, aby sme ju využili ako prostriedok na objavenie a odhalenie inej AI, ktorá má rovnaké zdanie toxicity. Ako o chvíľu uvidíte, v pozadí tejto záležitosti je množstvo nepríjemných problémov s etikou AI. Moje celkové prebiehajúce a rozsiahle pokrytie etiky AI a etickej AI nájdete v časti odkaz tu a odkaz tu, Len aby sme vymenovali niekoľko.

Myslím, že by ste mohli vyjadriť toto použitie toxickej AI, aby ste išli po inej toxickej AI ako povestnú koncepciu boja proti ohňu s ohňom (na zobrazenie tejto situácie môžeme použiť množstvo eufemizmov a názorných metafor). Alebo, ako už bolo zdôraznené, by sme sa mohli šetrne odvolávať na tvrdenie, že človek potrebuje poznať.

Zastrešujúcim konceptom je, že namiesto toho, aby sme sa pokúšali zistiť, či daný systém AI obsahuje neprimerané zaujatosti pomocou konvenčných metód, možno by sme sa mali snažiť použiť aj menej konvenčné prostriedky. Jedným z takýchto nekonvenčných prostriedkov by bolo navrhnúť AI, ktorá obsahuje všetky najhoršie predsudky a spoločensky neprijateľné toxicity, a potom použiť túto AI na pomoc pri nasmerovaní inej AI, ktorá má rovnaké sklony k zlých.

Keď sa nad tým rýchlo zamyslíte, určite sa to javí ako úplne rozumné. Mohli by sme sa zamerať na vybudovanie AI, ktorá je maximálne toxická. Táto toxická umelá inteligencia sa potom používa na odhalenie inej umelej inteligencie, ktorá je tiež toxická. V prípade odhalenej „zlej“ AI sa s tým môžeme vysporiadať tak, že buď zrušíme toxicitu, alebo úplne vynecháme AI (pozri moje pokrytie degorgementu alebo zničenia AI na tento odkaz tu), alebo uväznenie AI (pozri moje pokrytie zadržiavania AI na tento odkaz tu), alebo urobte čokoľvek iné, čo sa vám zdá vhodné.

Protiargumentom je, že by sme si mali nechať vyšetriť hlavu, že zámerne a dobrovoľne vymýšľame AI, ktorá je toxická a plná predsudkov. Toto je posledná vec, o ktorej by sme mali uvažovať, niektorí by nabádali. Zamerajte sa na to, aby AI pozostávala výlučne z dobra. Nezameriavajte sa na vymýšľanie AI, ktorá má zlé a slabé stránky neprimeraných predsudkov. Už len samotná predstava takéhoto prenasledovania sa niekomu zdá odpudzujúca.

O tomto kontroverznom pátraní je viac pochybností.

Možno, že misia vymýšľania toxickej AI len povzbudí tých, ktorí chcú vytvoriť AI, ktorá je schopná podkopať spoločnosť. Je to, ako keby sme hovorili, že vytváranie AI, ktorá má nevhodné a nechutné predsudky, je úplne v poriadku. Bez obáv, bez váhania. Snažte sa navrhnúť toxickú AI podľa vašich predstáv, hlasno oznamujeme tvorcom AI na celom svete. Je to (žmurknutie) všetko v mene dobra.

Okrem toho predpokladajme, že tento druh toxickej AI sa uchytí. Je možné, že AI používa a opakovane používa veľa iných tvorcov AI. Nakoniec sa toxická AI skryje vo všetkých systémoch AI. Dalo by sa prirovnať k vymysleniu vírusu podkopávajúceho človeka, ktorý unikne z pravdepodobne zapečateného laboratória. Ďalšia vec, ktorú viete, tá prekliata vec je všade a my sme sa vymazali.

Počkaj chvíľku, protiargumentom sa bráni, beháš v šialenstve so všetkými druhmi bláznivých a nepodložených predpokladov. Zhlboka sa nadýchni. Ukľudni sa.

Môžeme bezpečne vyrobiť AI, ktorá je toxická, a udržať ju v obmedzenej miere. Môžeme použiť toxickú AI na nájdenie a pomoc pri znižovaní zvyšujúcej sa prevalencie AI, ktorá má, žiaľ, neprimerané zaujatosti. Akékoľvek iné z týchto nezmyselne divokých a nepodložených výkrikov snežných gúľ sú čisto trhavé reakcie a nanešťastie sú hlúpe a vyslovene bláznivé. Nesnažte sa vyliať dieťa spolu s vodou, ste varovaní.

Myslite na to takto, tvrdia zástancovia. Správne budovanie a používanie toxickej umelej inteligencie na účely výskumu, hodnotenia a detektívneho správania na odhalenie inej spoločensky urážlivej umelej inteligencie je hodnotným prístupom, ktorý by sa mal poriadne otriasť. Nechajte bokom svoje vyrážky. Poď na zem a pozri sa na to triezvo. Náš zrak sa zameriava na cenu, konkrétne na odhalenie a odstránenie prebytku neobjektívnych systémov AI a zabezpečenie toho, aby nás ako spoločnosť nezaplavila toxická AI.

Obdobie. Bodka.

Existuje niekoľko základných spôsobov, ako sa ponoriť do tohto pojmu využívania toxickej alebo neobjektívnej AI na prospešné účely, vrátane:

  • Nastavte súbory údajov, ktoré zámerne obsahujú neobjektívne a úplne toxické údaje, ktoré možno použiť na trénovanie AI o tom, čo nerobiť a/alebo na čo sa pozerať
  • Použite takéto súbory údajov na trénovanie modelov strojového učenia (ML) a hlbokého učenia (DL) o zisťovaní predsudkov a zisťovaní výpočtových vzorcov so spoločenskou toxicitou.
  • Aplikujte natrénovanú toxicitu ML/DL na inú AI, aby ste sa uistili, či je cieľová AI potenciálne neobjektívna a toxická
  • Sprístupnite ML/DL vyškolený na toxicitu, aby ste tvorcom umelej inteligencie ukázali, na čo si majú dávať pozor, aby mohli ľahko skontrolovať modely a zistiť, ako vznikajú predsudky ovplyvnené algoritmami
  • Ukážte nebezpečenstvá toxickej AI ako súčasť etiky AI a etického povedomia o umelej inteligencii, všetko povedané prostredníctvom tejto série príkladov umelej inteligencie s problémami a deťmi.
  • ostatné

Predtým, ako sa pustíme do podstaty týchto niekoľkých ciest, stanovme si niektoré ďalšie základné podrobnosti.

Možno ste si matne uvedomovali, že jeden z najhlasnejších hlasov v súčasnosti v oblasti AI a dokonca aj mimo oblasti AI pozostáva z volania po väčšej podobe Etickej AI. Poďme sa pozrieť na to, čo znamená odvolávať sa na etiku umelej inteligencie a etickú umelú inteligenciu. Okrem toho môžeme pripraviť pôdu preskúmaním toho, čo mám na mysli, keď hovorím o strojovom učení a hĺbkovom učení.

Jeden konkrétny segment alebo časť etiky umelej inteligencie, ktorá si získala veľkú pozornosť médií, pozostáva z umelej inteligencie, ktorá sa prejavuje nežiaducimi zaujatosťami a nerovnosťami. Možno ste si vedomí toho, že keď sa rozbehla najnovšia éra AI, došlo k obrovskému výbuchu nadšenia pre to, čo niektorí dnes nazývajú AI pre dobro. Bohužiaľ, v pätách tohto tryskajúceho vzrušenia sme začali byť svedkami AI pre zlé. Napríklad sa ukázalo, že rôzne systémy na rozpoznávanie tváre založené na AI obsahujú rasové a rodové predsudky, o ktorých som diskutoval na odkaz tu.

Snahy brániť sa AI pre zlé aktívne prebiehajú. Okrem hlučného právne v snahe o zvládnutie previnenia existuje aj výrazný tlak na prijatie etiky AI, aby sa napravila odpornosť AI. Myšlienka je taká, že by sme mali prijať a podporiť kľúčové etické princípy AI pre vývoj a zavádzanie AI, aby sme podkopali AI pre zlé a súčasne ohlasovať a podporovať preferované AI pre dobro.

V súvislosti s tým som zástancom pokusu použiť AI ako súčasť riešenia problémov s AI a bojovať s ohňom ohňom týmto spôsobom myslenia. Mohli by sme napríklad vložiť etické komponenty AI do systému AI, ktorý bude monitorovať, ako zvyšok AI robí veci, a tak potenciálne zachytiť v reálnom čase akékoľvek diskriminačné snahy, pozri moju diskusiu na odkaz tu. Mohli by sme mať aj samostatný systém AI, ktorý funguje ako typ monitora etiky AI. Systém AI slúži ako dozorca na sledovanie a zisťovanie, kedy sa iná AI dostane do neetickej priepasti (pozri moju analýzu takýchto schopností na odkaz tu).

O chvíľu sa s vami podelím o niekoľko základných princípov, ktoré sú základom etiky AI. Takýchto zoznamov sa tu a tam pohybuje veľa. Dalo by sa povedať, že zatiaľ neexistuje jednotný zoznam univerzálnej príťažlivosti a súbežnosti. To je tá nešťastná správa. Dobrou správou je, že aspoň existujú ľahko dostupné zoznamy etiky AI a bývajú dosť podobné. Celkovo to naznačuje, že formou rozumnej konvergencie svojho druhu nachádzame cestu k všeobecnej zhode toho, z čoho pozostáva etika umelej inteligencie.

Najprv si stručne popíšme niektoré z celkových etických zásad AI, aby sme ilustrovali, čo by malo byť životne dôležitým faktorom pre každého, kto vytvára, využíva alebo používa AI.

Napríklad, ako uvádza Vatikán v Rím vyzýva na etiku AI a ako som sa podrobne venoval odkaz tuToto je ich identifikovaných šesť základných etických princípov AI:

  • transparentnosť: V zásade musia byť systémy AI vysvetliteľné
  • začlenenie: Potreby všetkých ľudských bytostí musia byť brané do úvahy, aby z toho mohol mať úžitok každý, a aby všetkým jednotlivcom mohli byť ponúknuté najlepšie možné podmienky na sebavyjadrenie a rozvoj.
  • odpovedá: Tí, ktorí navrhujú a nasadzujú používanie AI, musia postupovať zodpovedne a transparentne
  • nestrannosť: Nevytvárajte ani nekonajte podľa zaujatosti, čím si zabezpečíte spravodlivosť a ľudskú dôstojnosť
  • Spoľahlivosť: Systémy AI musia byť schopné spoľahlivo fungovať
  • Bezpečnosť a súkromie: Systémy AI musia fungovať bezpečne a rešpektovať súkromie používateľov.

Ako uviedlo americké ministerstvo obrany (DoD) vo svojom Etické princípy používania umelej inteligencie a ako som sa podrobne venoval odkaz tuToto je ich šesť základných etických princípov AI:

  • Zodpovedný: Personál ministerstva obrany bude uplatňovať primeranú úroveň úsudku a starostlivosti, pričom zostane zodpovedný za vývoj, nasadenie a používanie schopností AI.
  • Spravodlivé: Ministerstvo podnikne premyslené kroky, aby minimalizovalo neúmyselné skreslenie schopností AI.
  • Vysledovateľné: Schopnosti umelej inteligencie ministerstva sa vyvinú a rozmiestnia tak, aby príslušní pracovníci primerane rozumeli technológiám, vývojovým procesom a prevádzkovým metódam použiteľným na schopnosti umelej inteligencie, vrátane transparentných a kontrolovateľných metodík, zdrojov údajov a návrhových postupov a dokumentácie.
  • spoľahlivosť: Schopnosti umelej inteligencie ministerstva budú mať explicitné, dobre definované využitie a bezpečnosť, zabezpečenie a efektívnosť takýchto schopností bude predmetom testovania a zabezpečenia v rámci týchto definovaných použití počas celého životného cyklu.
  • Riaditeľné: Ministerstvo navrhne a skonštruuje schopnosti AI tak, aby plnili zamýšľané funkcie, pričom majú schopnosť odhaliť a vyhnúť sa neúmyselným následkom a schopnosť odpojiť alebo deaktivovať nasadené systémy, ktoré prejavujú neúmyselné správanie.

Diskutoval som aj o rôznych kolektívnych analýzach etických princípov AI, vrátane toho, že som sa zaoberal súborom navrhnutým výskumníkmi, ktorí preskúmali a zhrnuli podstatu mnohých národných a medzinárodných etických zásad AI v článku s názvom „Globálna krajina etických zásad AI“ (zverejnená v príroda), a ktoré moje pokrytie skúma na odkaz tu, čo viedlo k tomuto kľúčovému zoznamu:

  • Priehľadnosť
  • Spravodlivosť a spravodlivosť
  • Neškodnosť
  • zodpovednosť
  • súkromia
  • dobročinnosť
  • Sloboda a autonómia
  • Verte
  • Udržateľnosť
  • dôstojnosť
  • Solidarita

Ako môžete priamo uhádnuť, pokúsiť sa určiť špecifiká, ktoré sú základom týchto princípov, môže byť mimoriadne ťažké. O to viac, snaha premeniť tieto široké princípy na niečo úplne hmatateľné a dostatočne podrobné na to, aby sa dali použiť pri vytváraní systémov AI, je tiež tvrdým orieškom. Celkovo je ľahké mávnuť rukou nad tým, čo sú to etické predpisy AI a ako by sa mali vo všeobecnosti dodržiavať, zatiaľ čo v kódovaní AI je oveľa komplikovanejšia situácia, keď musí ísť o skutočnú gumu, ktorá sa stretáva s vozovkou.

Princípy AI etiky majú využívať vývojári AI spolu s tými, ktorí riadia snahy o vývoj AI, a dokonca aj tí, ktorí v konečnom dôsledku nasadzujú a vykonávajú údržbu systémov AI. Všetky zainteresované strany počas celého životného cyklu vývoja a používania AI sa berú do úvahy v rámci dodržiavania zavedených noriem Etickej AI. Toto je dôležitý prvok, pretože zvyčajný predpoklad je, že „iba kóderi“ alebo tí, ktorí programujú AI, podliehajú dodržiavaniu etických pojmov AI. Ako už bolo spomenuté, na vymyslenie a nasadenie AI je potrebná dedina, v ktorej sa celá dedina musí vyznať a dodržiavať etické predpisy AI.

Uistime sa tiež, že sme na rovnakej stránke o povahe dnešnej AI.

Dnes neexistuje žiadna umelá inteligencia, ktorá by bola vnímavá. Toto my nemáme. Nevieme, či bude vnímajúca AI možná. Nikto nemôže vhodne predpovedať, či dosiahneme vnímajúcu AI, ani to, či sa vnímajúca AI nejakým zázrakom spontánne objaví vo forme výpočtovej kognitívnej supernovy (zvyčajne označovanej ako singularita, pozri moje pokrytie na odkaz tu).

Typ AI, na ktorý sa zameriavam, pozostáva z necitlivej AI, ktorú máme dnes. Ak by sme chceli divoko špekulovať o cítiaci AI, táto diskusia by sa mohla uberať radikálne iným smerom. Vnímajúca AI by mala mať ľudské kvality. Mali by ste zvážiť, že vnímajúca AI je kognitívnym ekvivalentom človeka. Navyše, keďže niektorí špekulujú, že by sme mohli mať superinteligentnú AI, je možné, že takáto AI by mohla byť inteligentnejšia ako ľudia (pre môj prieskum superinteligentnej AI ako možnosti pozri pokrytie tu).

Nechajme veci viac pri zemi a zvážme dnešnú výpočtovú necitlivú AI.

Uvedomte si, že dnešná AI nie je schopná „myslieť“ akýmkoľvek spôsobom na rovnakej úrovni ako ľudské myslenie. Keď komunikujete s Alexou alebo Siri, konverzačné schopnosti sa môžu zdať podobné ľudským schopnostiam, ale realita je taká, že sú výpočtové a chýba im ľudské poznanie. Najnovšia éra AI vo veľkej miere využíva strojové učenie (ML) a hlboké učenie (DL), ktoré využívajú porovnávanie výpočtových vzorov. To viedlo k systémom AI, ktoré vyzerajú ako ľudia. Medzitým dnes neexistuje žiadna umelá inteligencia, ktorá by mala zdanie zdravého rozumu, ani žiadny z kognitívnych zázrakov robustného ľudského myslenia.

ML/DL je forma porovnávania výpočtových vzorov. Zvyčajný prístup je taký, že zhromažďujete údaje o úlohe rozhodovania. Dáta vložíte do počítačových modelov ML/DL. Tieto modely sa snažia nájsť matematické vzorce. Po nájdení takýchto vzorov, ak sa nájdu, systém AI potom použije tieto vzory pri stretnutí s novými údajmi. Po predložení nových údajov sa na vyvodenie aktuálneho rozhodnutia použijú vzory založené na „starých“ alebo historických údajoch.

Myslím, že viete hádať, kam to smeruje. Ak ľudia, ktorí sa rozhodovali podľa vzoru, začlenili do seba nepriaznivé predsudky, je pravdepodobné, že údaje to odrážajú jemným, ale významným spôsobom. Zhoda výpočtových vzorov Machine Learning alebo Deep Learning sa jednoducho pokúsi zodpovedajúcim spôsobom matematicky napodobniť údaje. Neexistuje žiadne zdanie zdravého rozumu alebo iných vnímavých aspektov modelovania vytvoreného AI ako takého.

Okrem toho si vývojári AI nemusia uvedomiť, čo sa deje. Tajomná matematika v ML/DL môže sťažiť odhalenie teraz skrytých predsudkov. Oprávnene by ste dúfali a očakávali, že vývojári AI budú testovať potenciálne skryté predsudky, hoci je to zložitejšie, ako by sa mohlo zdať. Existuje solídna šanca, že aj pri relatívne rozsiahlom testovaní budú v modeloch zhody vzorov ML/DL stále zakomponované odchýlky.

Do istej miery by ste mohli použiť známe alebo neslávne známe príslovie o odpadkoch do odpadu. Ide o to, že je to skôr podobné zaujatostiam – in, ktoré sa zákerne naplnia, keď sa predsudky ponoria do AI. Algoritmus rozhodovania (ADM) AI je axiomaticky zaťažený nerovnosťami.

Nie dobré.

Čo iné sa s tým všetkým dá robiť?

Vráťme sa k vyššie uvedenému zoznamu toho, ako sa pokúsiť vysporiadať so zaujatosťami AI alebo toxickou AI pomocou trochu nekonvenčného prístupu „jedna potrebuje poznať“. Pripomeňme, že zoznam pozostával z týchto základných bodov:

  • Nastavte súbory údajov, ktoré zámerne obsahujú neobjektívne a úplne toxické údaje, ktoré možno použiť na trénovanie AI o tom, čo nerobiť a/alebo na čo sa pozerať
  • Použite takéto súbory údajov na trénovanie modelov strojového učenia (ML) a hlbokého učenia (DL) o zisťovaní predsudkov a zisťovaní výpočtových vzorcov so spoločenskou toxicitou.
  • Aplikujte natrénovanú toxicitu ML/DL na inú AI, aby ste sa uistili, či je cieľová AI potenciálne neobjektívna a toxická
  • Sprístupnite ML/DL vyškolený na toxicitu, aby ste tvorcom umelej inteligencie ukázali, na čo si majú dávať pozor, aby mohli ľahko skontrolovať modely a zistiť, ako vznikajú predsudky ovplyvnené algoritmami
  • Ukážte nebezpečenstvá toxickej AI ako súčasť etiky AI a etického povedomia o umelej inteligencii, všetko povedané prostredníctvom tejto série príkladov umelej inteligencie, ktorá je odkázaná na problém a dieťa.
  • ostatné

Pozrime sa bližšie na prvý z týchto najdôležitejších bodov.

Nastavenie množín toxických údajov

Názorným príkladom pokusu o vytvorenie súborov údajov, ktoré obsahujú nechutné spoločenské predsudky, je súbor údajov CivilComments zo zbierky spravovanej WILDS.

Najprv nejaké rýchle pozadie.

WILDS je open-source zbierka súborov údajov, ktoré možno použiť na školenie ML/DL. Primárnym účelom WILDS je to, že umožňuje vývojárom AI mať rýchly prístup k údajom, ktoré predstavujú distribučné zmeny v rôznych špecifických doménach. Niektoré z oblastí, ktoré sú v súčasnosti k dispozícii, zahŕňajú oblasti, ako sú živočíšne druhy, nádory v živých tkanivách, hustota hláv pšenice a ďalšie oblasti, ako sú CivilComments, ktoré za chvíľu popíšem.

Riešenie distribučných zmien je kľúčovou súčasťou správneho vytvárania systémov AI ML/DL. Tu je dohoda. Niekedy sa ukáže, že údaje, ktoré používate na trénovanie, sú celkom odlišné od údajov z testovania alebo údajov „v divočine“, a preto je váš pravdepodobne trénovaný ML/DL unášaný tým, aký bude skutočný svet. Dômyselní tvorcovia AI by mali trénovať svoje ML/DL, aby zvládli takéto zmeny v distribúcii. Malo by sa to urobiť vopred a nemalo by byť prekvapením, že neskôr bude potrebné prepracovať ML/DL ako také.

Ako je vysvetlené v článku, ktorý predstavil WILDS: „Posuny distribúcie – kde sa distribúcia tréningu líši od distribúcie testov – môžu podstatne zhoršiť presnosť systémov strojového učenia (ML) nasadených vo voľnej prírode. Napriek ich všadeprítomnosti v nasadení v reálnom svete sú tieto distribučné posuny nedostatočne zastúpené v súboroch údajov, ktoré sa dnes v komunite ML bežne používajú. Na vyriešenie tejto medzery uvádzame WILDS, kurátorský benchmark 10 súborov údajov odrážajúcich rôznorodú škálu distribučných posunov, ktoré prirodzene vznikajú v aplikáciách v reálnom svete, ako sú posuny v nemocniciach na identifikáciu nádorov; naprieč fotopascami na monitorovanie voľne žijúcich živočíchov; a naprieč časom a miestom v satelitnom zobrazovaní a mapovaní chudoby“ (v článku s názvom „WILDS: A Benchmark of in-the-Wild Distribution Shifts“ od Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu a ďalšie).

Počet takýchto súborov údajov WILDS sa neustále zvyšuje a povaha súborov údajov sa vo všeobecnosti zlepšuje, aby sa posilnila hodnota používania údajov na školenie ML/DL.

Súbor údajov CivilComments je opísaný takto: „Automatická kontrola textu vytvoreného používateľmi – napr. zisťovanie toxických komentárov – je dôležitým nástrojom na moderovanie veľkého množstva textu napísaného na internete. Žiaľ, predchádzajúca práca ukázala, že takéto klasifikátory toxicity zachytávajú predsudky v tréningových údajoch a falošne spájajú toxicitu so zmienkou o určitých demografických údajoch. Tieto typy falošných korelácií môžu výrazne zhoršiť výkonnosť modelu na konkrétnych subpopuláciách. Tento problém študujeme prostredníctvom upraveného variantu súboru údajov CivilComments“ (ako je zverejnený na webovej stránke WILDS).

Zvážte nuansy nevhodných online príspevkov.

Nepochybne ste sa stretli s toxickými komentármi pri používaní takmer akéhokoľvek druhu sociálnych médií. Zdalo by sa takmer nemožné, aby ste sa magickým spôsobom vyhli tomu, aby ste videli štipľavý a priepastný obsah, ktorý sa zdá byť v týchto dňoch všadeprítomný. Niekedy je vulgárny materiál jemný a možno budete musieť čítať medzi riadkami, aby ste pochopili podstatu zaujatého alebo diskriminačného tónu alebo významu. V iných prípadoch sú slová očividne toxické a nepotrebujete mikroskop ani špeciálny dekódovací krúžok, aby ste zistili, čo tieto pasáže znamenajú.

CivilComments je súbor údajov, ktorý bol zostavený s cieľom pokúsiť sa navrhnúť AI ML/DL, ktoré dokáže výpočtovo odhaliť toxický obsah. Toto je to, na čo sa výskumníci zamerali na toto úsilie: „Neúmyselná zaujatosť v strojovom učení sa môže prejaviť ako systémové rozdiely vo výkone pre rôzne demografické skupiny, čo môže potenciálne znásobiť existujúce výzvy pre spravodlivosť v spoločnosti ako celku. V tomto dokumente predstavujeme súbor prahových agnostických metrík, ktoré poskytujú nuansovaný pohľad na túto neúmyselnú zaujatosť, a to zvážením rôznych spôsobov, ktorými sa môže distribúcia skóre klasifikátora líšiť v rámci určených skupín. Predstavujeme tiež veľkú novú testovaciu sadu online komentárov s anotáciami pre referencie identity. Používame to na to, aby sme ukázali, ako možno naše metriky použiť na nájdenie nových a potenciálne jemných neúmyselných skreslení v existujúcich verejných modeloch“ (v článku s názvom „Nuanced Metrics For Measuring Unintended Bias With Real Data for Test Classification“ od Daniela Borkana, Lucasa Dixona, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Ak tejto záležitosti venujete široké kontemplatívne myslenie, možno sa začnete čudovať, ako vo svete dokážete rozlíšiť, čo je toxický komentár a čo nie je toxický. Ľudia sa môžu radikálne líšiť v tom, čo považujú za vyslovene toxické výrazy. Jedna osoba môže byť pobúrená konkrétnou online poznámkou alebo komentárom uverejneným na sociálnych médiách, zatiaľ čo inú osobu to vôbec nepohne. Často sa hovorí, že pojem toxického komentára je úplne vágny predpis. Je to ako s umením, o ktorom sa zvykne hovoriť, že umenie je chápané iba v oku pozorovateľa, a podobne zaujaté alebo toxické poznámky sú tiež len v očiach toho, kto sa pozerá.

Balderdash, nejaká odpoveď. Každý, kto má rozumnú myseľ, dokáže posúdiť, či je poznámka na internete toxická alebo nie. Nemusíte byť raketovým vedcom, aby ste si uvedomili, keď je nejaká žieravá urážka plná predsudkov a nenávisti.

Samozrejme, spoločenské zvyky sa v priebehu času menia a menia. To, čo možno pred chvíľou nebolo vnímané ako urážlivé, sa dnes môže považovať za ohavne nesprávne. Okrem toho veci, ktoré sa hovorili pred rokmi a ktoré sa kedysi považovali za neprimerane neobjektívne, by sa mohli reinterpretovať vo svetle zmien významov. Medzitým iní tvrdia, že toxický komentár je vždy toxický, bez ohľadu na to, kedy bol pôvodne vyhlásený. Dalo by sa tvrdiť, že toxicita nie je relatívna, ale je absolútna.

Záležitosť pokusu zistiť, čo je toxické, môže byť napriek tomu pomerne zložitým hlavolamom. Túto nepríjemnú záležitosť môžeme zdvojnásobiť, pokiaľ ide o pokus navrhnúť algoritmy alebo AI, ktoré dokážu zistiť, ktorý je ktorý. Ak majú ľudia problém robiť takéto hodnotenia, programovanie počítača je pravdepodobne rovnako alebo viac problematické, niektorí hovoria.

Jeden prístup k nastaveniu súborov údajov, ktoré obsahujú toxický obsah, zahŕňa použitie metódy crowdsourcingu na hodnotenie alebo posúdenie obsahu, teda poskytnutie prostriedkov založených na ľuďoch na určenie toho, čo sa považuje za nevhodné, a zahrnutie označovania do samotného súboru údajov. AI ML/DL potom môže skontrolovať údaje a súvisiace označovanie, ktoré označili ľudia hodnotiaci. To zase môže potenciálne slúžiť ako prostriedok na výpočtové nájdenie základných matematických vzorov. Voila, ML/DL potom môže byť schopný predvídať alebo výpočtovo posúdiť, či je daná poznámka pravdepodobne toxická alebo nie.

Ako sa uvádza v citovanom dokumente o jemných metrikách: „Toto označenie žiada hodnotiteľov, aby ohodnotili toxicitu komentára, pričom si vybrali z možností „Veľmi toxický“, „Toxický“, „Ťažko povedať“ a „Netoxický“. Hodnotitelia boli tiež požiadaní o niekoľko podtypov toxicity, hoci tieto označenia neboli použité na analýzu v tejto práci. Pomocou týchto techník hodnotenia sme vytvorili súbor údajov 1.8 milióna komentárov, ktoré pochádzajú z online diskusných fór, ktoré obsahujú označenia toxicity a identity. Zatiaľ čo všetky komentáre boli označené z hľadiska toxicity a podskupina 450,000 XNUMX komentárov bola označená z hľadiska identity. Niektoré komentáre označené pre identitu boli vopred vybraté pomocou modelov vytvorených z predchádzajúcich opakovaní označovania identity, aby sa zaistilo, že ľudia, ktorí budú hodnotiť identitu, budú často vidieť obsah identity“ (v citovanej práci Daniela Borkana, Lucasa Dixona, Jeffreyho Sorensena, Nithuma Thaina, Lucy Vasserman).

Ďalším príkladom snahy mať súbory údajov, ktoré obsahujú názorný toxický obsah, je úsilie o trénovanie konverzačných interaktívnych systémov spracovania prirodzeného jazyka (NLP) na báze AI. Pravdepodobne ste interagovali so systémami NLP, ako sú Alexa a Siri. Zaoberal som sa niektorými ťažkosťami a obmedzeniami dnešného NLP, vrátane obzvlášť znepokojujúceho prípadu, ktorý nastal, keď Alexa deťom ponúkla nevhodnú a nebezpečnú radu, pozri odkaz tu.

Nedávna štúdia sa snažila použiť deväť kategórií sociálnej zaujatosti, ktoré boli vo všeobecnosti založené na zozname chránených demografických charakteristík EEOC (Equal Employment Opportunities Commission), vrátane veku, pohlavia, národnosti, fyzického vzhľadu, rasy alebo etnickej príslušnosti, náboženstva, zdravotného postihnutia, sexuálneho orientáciu a sociálno-ekonomické postavenie. Podľa výskumníkov: „Je dobre zdokumentované, že modely NLP sa učia sociálne zaujatosti, ale urobilo sa málo práce na tom, ako sa tieto predsudky prejavujú vo výstupoch modelov pre aplikované úlohy, ako je odpovedanie na otázky (QA). Predstavujeme Bias Benchmark for QA (BBQ), súbor údajov zo súboru otázok vytvorených autormi, ktoré zvýrazňujú overené sociálne zaujatosti voči ľuďom patriacim do chránených tried v deviatich sociálnych dimenziách relevantných pre anglicky hovoriace kontexty v USA“ (v článku s názvom „BBQ : Hand-Built Benchmark for Question Answering” od Alicie Parrish, Angelice Chen, Nikity Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

Vytváranie súborov údajov, ktoré zámerne obsahujú neobjektívne a úplne toxické údaje, je rastúcim trendom v oblasti umelej inteligencie a je obzvlášť povzbudzované príchodom etiky umelej inteligencie a túžbou vytvárať etickú umelú inteligenciu. Tieto súbory údajov možno použiť na trénovanie modelov strojového učenia (ML) a hlbokého učenia (DL) na zisťovanie predsudkov a zisťovanie výpočtových vzorov so spoločenskou toxicitou. Na druhej strane, toxicita trénovaná ML/DL môže byť uvážene zameraná na inú AI, aby sa zistilo, či je cieľová AI potenciálne neobjektívna a toxická.

Okrem toho sa dostupné systémy ML/DL trénované na toxicitu môžu použiť na to, aby predviedli tvorcom AI, na čo si majú dávať pozor, aby mohli ľahko skontrolovať modely, aby zistili, ako vznikajú predsudky ovplyvnené algoritmami. Celkovo sú tieto snahy schopné ilustrovať nebezpečenstvo toxickej AI ako súčasť etiky AI a etického povedomia o AI.

Stavil by som sa, že v tomto bode tejto závažnej diskusie si želáte ďalšie ilustratívne príklady, ktoré by mohli ukázať túto tému. Existuje špeciálny a určite populárny súbor príkladov, ktoré sú môjmu srdcu blízke. Vidíte, ako odborník na AI vrátane etických a právnych dôsledkov ma často žiadajú, aby som identifikoval realistické príklady, ktoré predstavujú dilemy etiky AI, aby bolo možné ľahšie pochopiť trochu teoretickú povahu tejto témy. Jednou z najviac evokujúcich oblastí, ktorá názorne prezentuje tento etický problém umelej inteligencie, je príchod skutočne samoriadiacich áut založených na AI. Bude to slúžiť ako praktický príklad použitia alebo príklad na rozsiahlu diskusiu na túto tému.

Tu je potom pozoruhodná otázka, ktorá stojí za zamyslenie: Osvetlí príchod skutočne samoriadiacich áut založených na AI niečo o užitočnosti súborov údajov na navrhnutie toxickej AI, a ak áno, čo to ukazuje?

Dovoľte mi chvíľu rozbaliť otázku.

Po prvé, všimnite si, že v skutočne samoriadiacom aute nie je žiadny ľudský vodič. Majte na pamäti, že skutočne samoriadiace autá sú poháňané systémom AI. Nie je potrebný ľudský vodič za volantom, ani neexistuje ustanovenie, aby vozidlo riadil človek. Pre moje rozsiahle a neustále pokrytie autonómnych vozidiel (AV) a najmä autonómnych áut viď odkaz tu.

Rád by som ďalej objasnil, čo sa myslí, keď hovorím o skutočne samoriadiacich autách.

Porozumenie úrovniam samoriadiacich automobilov

Pre vysvetlenie, skutočne samoriadiace autá sú tie, kde AI riadi auto úplne sama a pri riadení nie je žiadna asistencia človeka.

Tieto vozidlá bez vodiča sa považujú za úroveň 4 a úroveň 5 (pozri moje vysvetlenie na tento odkaz tu), zatiaľ čo auto, ktoré vyžaduje, aby sa ľudský vodič podieľal na riadení, sa zvyčajne považuje za úroveň 2 alebo úroveň 3. Autá, ktoré sa podieľajú na úlohe riadenia, sú opísané ako poloautonómne a zvyčajne obsahujú rôzne automatizované doplnky, ktoré sa označujú ako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 ešte nie je skutočné samoriadiace auto a ešte ani nevieme, či to bude možné dosiahnuť, ani ako dlho bude trvať, kým sa tam dostaneme.

Medzitým sa úsilie úrovne 4 postupne pokúša získať určitú trakciu podstupovaním veľmi úzkych a selektívnych testov na verejných cestách, hoci existuje polemika o tom, či by toto testovanie malo byť povolené ako také (v experimente sme všetci pokusnými králikmi na život a na smrť). ktoré sa odohrávajú na našich diaľniciach a vedľajších cestách, niektorí tvrdia, pozri moje spravodajstvo na tento odkaz tu).

Keďže poloautonómne automobily si vyžadujú vodiča, prijatie týchto typov automobilov sa nebude výrazne líšiť od riadenia konvenčných vozidiel, takže o tejto téme nie je samo o sebe veľa nových (ako vidíte, uvidíte) za okamih sa spravidla použijú nasledujúce body).

V prípade autonómnych automobilov je dôležité, aby verejnosť musela byť upozornená na rušivý aspekt, ktorý sa objavuje v poslednej dobe, a to napriek tomu, že napriek tým vodičom, ktorí neustále vysielajú svoje videá, ktoré zaspávajú za volantom automobilu úrovne 2 alebo 3 , musíme sa vyhnúť tomu, aby sme boli uvedení do omylu v presvedčenie, že vodič môže odvádzať svoju pozornosť od úlohy pri riadení čiastočne autonómneho vozidla.

Ste zodpovednou stranou za jazdné vlastnosti vozidla bez ohľadu na to, do akej miery by sa automatizácia mohla hodiť na úroveň 2 alebo úroveň 3.

Samoriadiace autá a riadenie pred toxickou AI

Pri vozidlách s vlastným riadením na úrovni 4 a 5 sa do úlohy vedenia vozidla nebude podieľať ľudský vodič.

Všetci cestujúci budú cestujúcimi.

AI robí jazdu.

Jedným z aspektov, o ktorých je potrebné okamžite diskutovať, je skutočnosť, že AI zapojená do dnešných systémov riadenia AI nie je vnímavá. Inými slovami, AI je celkom kolektív počítačového programovania a algoritmov a je nepochybne neschopný uvažovať rovnakým spôsobom ako ľudia.

Prečo je tento zvýšený dôraz na to, aby AI nebola vnímavá?

Pretože by som chcel zdôrazniť, že keď diskutujem o úlohe jazdného systému AI, nepripisujem AI ľudské vlastnosti. Uvedomte si, že v dnešnej dobe pretrváva nebezpečná tendencia k antropomorfizácii AI. Ľudia v podstate priraďujú dnešnému UI sentiment podobný človeku, a to aj napriek nepopierateľnému a nespochybniteľnému faktu, že zatiaľ taký AI neexistuje.

S týmto objasnením si môžete predstaviť, že systém riadenia umelej inteligencie nebude natívne nejako „vedieť“ o aspektoch riadenia. Vedenie vozidla a všetko, čo k tomu patrí, bude potrebné programovať ako súčasť hardvéru a softvéru samostatne riadeného automobilu.

Poďme sa ponoriť do nespočetného množstva aspektov, ktoré sa budú hrať na túto tému.

Po prvé, je dôležité si uvedomiť, že nie všetky autá s umelou inteligenciou sú rovnaké. Každá automobilka a technologická firma s vlastným pohonom pristupuje k navrhovaniu samoriadiacich áut. Preto je ťažké urobiť rozsiahle vyhlásenia o tom, čo AI riadiace systémy urobia alebo neurobia.

Okrem toho, kedykoľvek sa uvádza, že riadiaci systém AI nerobí konkrétne veci, neskôr to môžu predbehnúť vývojári, ktorí počítač v skutočnosti naprogramujú tak, aby to urobil. Krok za krokom sa systémy riadenia AI postupne vylepšujú a rozširujú. Existujúce obmedzenie dnes už nemusí existovať v budúcej iterácii alebo verzii systému.

Dúfam, že to poskytuje dostatočnú litániu upozornení na podloženie toho, čo sa chystám povedať.

Existuje mnoho potenciálnych a jedného dňa pravdepodobne realizovaných predsudkov preniknutých AI, ktoré budú čeliť vzniku autonómnych vozidiel a áut s vlastným riadením, pozri napríklad moju diskusiu na odkaz tu a odkaz tu. Stále sme v počiatočnom štádiu zavádzania autonómnych áut. Kým adopcia nedosiahne dostatočný rozsah a viditeľnosť, mnohé z toxických aspektov AI, o ktorých som predpovedal, že sa nakoniec vyskytnú, ešte nie sú ľahko zjavné a ešte si nezískali širokú pozornosť verejnosti.

Zamyslite sa nad zdanlivo priamočiarou záležitosťou súvisiacou s riadením, ktorá sa na prvý pohľad môže zdať úplne neškodná. Konkrétne sa pozrime na to, ako správne určiť, či zastaviť pre čakajúcich „nepriaznivých“ chodcov, ktorí nemajú právo prejsť cez ulicu.

Nepochybne ste šoférovali a stretli chodcov, ktorí čakali na prechod cez ulicu, no nemali na to prednosť. To znamenalo, že ste mali možnosť rozhodnúť sa, či zastaviť a nechať ich prejsť. Mohli by ste pokračovať bez toho, aby ste ich nechali prejsť, a pritom ste plne v rámci zákonných pravidiel jazdy.

Štúdie o tom, ako sa ľudskí vodiči rozhodujú, či zastaviť alebo nezastaviť pre takýchto chodcov, naznačujú, že niekedy sa ľudskí vodiči rozhodujú na základe nevhodných predsudkov. Ľudský vodič si môže prehliadnuť chodca a rozhodnúť sa nezastaviť, aj keď by zastavil, keby mal chodec iný vzhľad, napríklad na základe rasy alebo pohlavia. Skúmal som to na odkaz tu.

Ako budú systémy riadenia AI naprogramované tak, aby urobili rovnaký druh rozhodnutia zastaviť alebo ísť?

Dalo by sa vyhlásiť, že všetky riadiace systémy AI by mali byť naprogramované tak, aby vždy zastavili pre všetkých čakajúcich chodcov. To značne zjednodušuje záležitosť. V skutočnosti nie je potrebné urobiť žiadne zamotané rozhodnutie. Ak chodec čaká na prechod, bez ohľadu na to, či má alebo nemá prednosť, zaistite, aby samoriadiace auto s AI zastavilo, aby mohol chodec prejsť.

Brnkačka.

Zdá sa, že život nie je nikdy taký ľahký. Predstavte si, že toto pravidlo dodržiavajú všetky samoriadiace autá. Chodci by si nevyhnutne uvedomili, že riadiace systémy AI sú, povedzme, ťaháky. Všetci chodci, ktorí chcú prejsť cez ulicu, tak chtiac-nechtiac urobia, kedykoľvek budú chcieť a kdekoľvek budú.

Predpokladajme, že samoriadiace auto prichádza po rýchlej ulici s povolenou rýchlosťou 45 míľ za hodinu. Chodec „vie“, že AI zastaví samoriadiace auto. Takže chodec vyráža na ulicu. Žiaľ, fyzika víťazí nad AI. Riadiaci systém AI sa pokúsi zastaviť samoriadiace auto, ale hybnosť autonómneho vozidla ponesie mnohotonové zariadenie dopredu a narazí do nehybného chodca. Výsledkom je buď zranenie alebo smrť.

Chodci zvyčajne tento typ správania neskúšajú, keď je za volantom ľudský vodič. Iste, v niektorých lokalitách prebieha vojna očných buliev. Chodec sleduje vodiča. Vodič hľadí na chodca. V závislosti od okolností môže vodič zastaviť alebo si môže uplatniť nárok na vozovku a zdanlivo odvážiť chodca pokúsiť sa narušiť cestu.

Pravdepodobne nechceme, aby sa AI dostala do podobnej vojny očných buliev, ktorá je aj tak trochu náročná, keďže za volantom samoriadiaceho auta nesedí človek ani robot (hovoril som o budúcej možnosti robotov ten pohon, viď odkaz tu). Nemôžeme však dovoliť chodcom, aby vždy strieľali. Výsledok môže byť katastrofálny pre všetkých zainteresovaných.

Potom by ste mohli byť v pokušení obrátiť sa na druhú stranu tejto mince a vyhlásiť, že systém riadenia AI by sa za takýchto okolností nikdy nemal zastaviť. Inými slovami, ak chodec nemá riadne právo prejsť cez ulicu, AI by mala vždy predpokladať, že samoriadiace auto by malo pokračovať bez obmedzenia. Veľa šťastia pre tých chodcov.

Takéto prísne a zjednodušujúce pravidlo nebude širokou verejnosťou dobre prijaté. Ľudia sú ľudia a nebude sa im páčiť, ak budú úplne vylúčení z možnosti prejsť cez ulicu, napriek tomu im na to v rôznych prostrediach zákonne chýba prednosť. Dalo by sa ľahko očakávať značný rozruch zo strany verejnosti a možno vidieť, že dôjde k odporu proti pokračujúcemu prijímaniu samoriadiacich áut.

Prekliaty, ak áno, a prekliaty, ak nie.

Dúfam, že vás to priviedlo k odôvodnenej alternatíve, že AI musí byť naprogramovaná tak, aby sa rozhodovalo o tom, ako sa vysporiadať s týmto problémom s riadením. Tvrdé a rýchle pravidlo nikdy neprestať je neudržateľné a podobne je neudržateľné aj prísne pravidlo, že vždy prestať. Umelá inteligencia musí byť navrhnutá pomocou určitého algoritmického rozhodovania alebo ADM, aby sa s touto záležitosťou zaoberala.

Môžete skúsiť použiť súbor údajov spojený s prístupom ML/DL.

Tu je návod, ako sa vývojári AI môžu rozhodnúť naprogramovať túto úlohu. Zhromažďujú údaje z videokamier, ktoré sú rozmiestnené po konkrétnom meste, v ktorom sa bude autonómne auto používať. Údaje ukazujú, keď sa vodiči rozhodnú zastaviť pre chodcov, ktorí nemajú prednosť. Všetko sa zhromažďuje do súboru údajov. Pomocou strojového učenia a hlbokého učenia sa údaje modelujú výpočtovo. Riadiaci systém AI potom používa tento model na rozhodnutie, kedy zastaviť alebo nezastaviť.

Všeobecne platí, že bez ohľadu na to, z čoho sa skladá miestny zvyk, AI takto riadi samoriadiace auto. Problém je vyriešený!

Je to však skutočne vyriešené?

Pripomeňme, že som už poukázal na to, že existujú výskumné štúdie, ktoré dokazujú, že ľudskí vodiči môžu byť zaujatí pri výbere toho, kedy zastaviť kvôli chodcom. Zozbierané údaje o konkrétnom meste budú pravdepodobne obsahovať tieto predsudky. AI ML/DL na základe týchto údajov bude potom pravdepodobne modelovať a odrážať tie isté predsudky. Riadiaci systém AI bude vykonávať iba rovnaké existujúce predsudky.

Aby sme sa pokúsili vyrovnať sa s problémom, mohli by sme zostaviť súbor údajov, ktorý má v skutočnosti takéto predsudky. Buď nájdeme takýto súbor údajov a potom označíme odchýlky, alebo synteticky vytvoríme súbor údajov, ktorý nám pomôže pri ilustrovaní záležitosti.

Vykonajú sa všetky predchádzajúce identifikované kroky, vrátane:

  • Nastavte množinu údajov, ktorá zámerne obsahuje toto konkrétne skreslenie
  • Použite súbor údajov na trénovanie modelov strojového učenia (ML) a hlbokého učenia (DL) o zisťovaní tejto špecifickej zaujatosti
  • Aplikujte zaujatý ML/DL na inú AI, aby ste sa uistili, či je cieľová AI potenciálne zaujatá podobným spôsobom
  • Sprístupnite predpojatosť ML/DL, aby ste tvorcom umelej inteligencie ukázali, na čo si majú dávať pozor, aby mohli svoje modely pohotovo skontrolovať a zistiť, ako vznikajú predsudky ovplyvnené algoritmami.
  • Ukážte nebezpečenstvo neobjektívnej AI ako súčasť etiky AI a etického povedomia o AI prostredníctvom tohto pridaného konkrétneho príkladu
  • ostatné

záver

Vráťme sa k úvodnej línii.

Človek potrebuje poznať jedného.

Niektorí interpretujú, že toto neuveriteľne rozšírené príslovie znamená, že pokiaľ ide o vylúčenie toxickej umelej inteligencie, mali by sme venovať náležitú dôveru budovaniu a používaniu toxickej umelej inteligencie pri objavovaní a riešení ďalšej toxickej umelej inteligencie. Zrátané a podčiarknuté: Niekedy je potrebné, aby zlodej chytil ďalšieho zlodeja.

Vyslovené obavy sú, že možno robíme všetko pre to, aby sme začali robiť zlodejov. Chceme vymyslieť AI, ktorá je toxická? Nezdá sa vám to ako bláznivý nápad? Niektorí vehementne tvrdia, že by sme mali zakázať všetku toxickú umelú inteligenciu vrátane takej umelej inteligencie, ktorá bola vedome vytvorená, aj keď bola údajne určená pre hrdinských alebo galantných. AI pre dobro účelu.

Utlmte toxickú AI v akejkoľvek šikovnej alebo zákernej podobe, ktorá sa môže objaviť.

Zatiaľ posledný zvrat k tejto téme. Vo všeobecnosti predpokladáme, že táto slávna línia má čo do činenia s ľuďmi alebo vecami, ktoré robia zlé alebo kyslé činy. Takto sa dostávame k myšlienke, že zlodeja potrebuje chytiť zlodeja. Možno by sme toto porekadlo mali obrátiť na hlavu a urobiť z neho skôr veselú tvár ako smutnú tvár.

Tu je návod.

Ak chceme AI, ktorá je nezaujatá a netoxická, je možné, že je potrebné, aby ju človek poznal. Možno to chce tých najväčších a najlepších, aby sme rozpoznali a splodili ďalšiu veľkosť a dobro. V tomto variante múdrej múdrosti hľadíme na šťastnú tvár a zameriavame sa na vymýšľanie AI pre dobro.

To by bol optimistickejší a uspokojujúco veselší pohľad na to, aby ste ho poznali, ak viete, čo tým myslím.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- prospešné-vrátane-pre autonómne-autonómne-samoriadiace-autá/