Etika umelej inteligencie narušená najnovšou umelou inteligenciou vyvinutou v Číne, vernosť strany a čítanie mysle, osvedčenie o rozpoznávaní tváre, ktoré by mohlo predznamenať utláčajúce autonómne systémy

si lojálny?

Teoreticky by mohlo byť možné preskúmať vaše zjavné skutky a zistiť, či je lojalita prejavená vašimi činmi.

Predpokladajme však, že namiesto toho došlo k pokusu čítať vaše myšlienky a medzitým skenovať vašu tvár, aby ste určili svoj kvocient lojality. Toto je desivo rušivé; môžete ľahko odsúdiť. Znie to ako jeden z tých bláznivých sci-fi filmov, ktoré predstavujú budúcu dystopickú spoločnosť.

Chvalabohu, potajomky si šepkáš, dnes nič také nemáme.

Fúha, drž svoje kone.

V novinových titulkoch sa nedávno ozvalo, že výskumný dokument zverejnený online v Číne 1. júla 2022 zobrazuje štúdiu, ktorá údajne zahŕňala hodnotenie mozgových vĺn ľudí a ich výrazov tváre na účely výpočtu, či boli lojálni Čínskej komunistickej strane (ČKS). . Takže, nech sa páči, budúcnosť je stále bližšie a bližšie, aspoň pokiaľ ide o dosiahnutie dystopickej spoločnosti, ktorej sme sa obávali, že jedného dňa môže vzniknúť.

Výskumný dokument rýchlo zmizol zo svojho online zverejneného odkazu.

Rýchle opovrhovanie, ktoré sa rýchlo prehnalo internetom, pravdepodobne stačilo na to, aby sa noviny stiahli. Alebo možno chcú výskumníci len urobiť niekoľko zmien znenia a iných neškodných opráv s cieľom urobiť preúčtovanie, keď budú mať dôkladnejšiu šancu zabezpečiť, že i sú bodkované a t sú všetky prekrížené. Budeme musieť mať oči otvorené, aby sme zistili, či papier dostane druhý život.

Pokračujem a hlboko sa ponorím do toho, čo vieme o výskumnej štúdii, a pokúsim sa spojiť body o tom, aký význam má tento druh práce súvisiacej s AI pre nás všetkých, ďaleko presahujúc rámec toho obmedzený na jednu konkrétnu krajinu. Moje pokrytie bude o niečo rozsiahlejšie ako ostatné nedávne správy o tejto zaujímavej položke, takže prosím majte so mnou trpezlivosť.

Mojím ďalším dôrazom bude, že existuje množstvo dôležitých lekcií etiky AI, ktoré môžeme získať z údajného papiera. Moje pokračujúce a rozsiahle pokrytie etiky AI a etickej AI nájdete v časti odkaz tu a odkaz tu, Len aby sme vymenovali niekoľko.

Tu je to, čo bolo doteraz spomenuté o výskumnej štúdii.

Niektorí „dobrovoľníci“ boli zjavne prijatí, aby sa zúčastnili experimentu týkajúceho sa vnímania ČKS. Či to boli ochotní dobrovoľníci alebo viac podobní podnecovaným alebo možno riadeným dobrovoľníkom, nie je známe. Pre diskusiu budeme predpokladať, že súhlasili s tým, aby sa stali predmetom štúdie.

Prinášam to, aby to nebolo jednoducho šmrncovné. Kedykoľvek sa uskutoční experiment zahŕňajúci ľudské subjekty, existuje množstvo všeobecne akceptovaných postupov týkajúcich sa náboru a ponorenia takýchto subjektov do výskumného úsilia. Čiastočne to súvisí s predchádzajúcimi štúdiami, ktoré často oklamali alebo nútili ľudí zapojiť sa do experimentu, čo niekedy viedlo k nepriaznivým psychologickým následkom alebo dokonca k fyzickej ujme pre týchto účastníkov. Vedecká komunita sa mocne pokúšala obmedziť tieto typy zákerných štúdií a vyžaduje, aby sa tým, ktorí sa usilovali o zaradenie do štúdií súvisiacich s ľuďmi, poskytovali všetky druhy odhalení a varovaní.

Aby som to objasnil, nie každý dodržiava takéto obozretné a svedomité pokyny.

Pokračovať, bolo tam údajne 43 subjektov a hovorilo sa, že sú členmi Komunistickej strany Číny. Majte na pamäti, že výber subjektov pre experiment je pre experiment celkom kľúčový a musí sa vziať do úvahy aj pri akýchkoľvek záveroch, ktoré by ste sa mohli pokúsiť dospieť neskôr k výsledkom experimentu.

Predpokladajme, že chcem urobiť experiment o tom, ako ľudia vnímajú uznávanú sériu Star Wars. Ak vopred vyberiem témy, ktoré všetky vyslovene nenávidia Hviezdne vojny (ako môžu takí ľudia existovať?) a ukážem im videoklipy k Hviezdnym vojnám, je pravdepodobné, že pravdepodobne povedia, že stále nemajú radi Hviezdne vojny. Na základe tohto pseudovedeckého experimentu možno zákerne tvrdím, že ľudia – vo všeobecnosti – naozaj nenávidia Hviezdne vojny, čo bolo „dokázané“ (žmurknutie) v mojom „starostlivo“ pripravenom výskumnom prostredí.

Možno ste nevedeli, že som zmanipuloval ruletu tak, že som si vopred vybral predmety, o ktorých som očakával, že prinesú moje tajne požadované výsledky. Samozrejme, keby som namiesto toho úmyselne naverboval ľudí, ktorí milovali Hviezdne vojny a boli horlivými zanietenými fanúšikmi, je pravdepodobné, že by hlásili, že sú nadšení zo sledovania týchto klipov Star Wars. Opäť platí, že akékoľvek závery o tom, ako ľudia vo všeobecnosti reagujú na Hviezdne vojny, by boli zmiernené vopred vybraným súborom predmetov vybraných pre toto úsilie.

Štúdia zameraná na ČKS zdanlivo prinútila subjekty sedieť pred kioskovým video displejom a čítať rôzne články o politikách a úspechoch ČKS. Toto je pravdepodobne zvažovaná „experimentálna liečba“, ktorej sú subjekty vystavené. Pri plánovaní experimentu zvyčajne prichádzate s experimentálnym faktorom alebo aspektom, ktorý chcete zistiť, či ovplyvní účastníkov.

Výskumná otázka, ktorá sa očividne skúmala, bola, či akt preskúmania týchto materiálov bude mať nejaký vplyv na subjekty v zmysle zvýšenia, zníženia alebo neutrálnosti, pokiaľ ide o ich následné dojmy z ČKS.

V klasickej nulovej hypotéze by ste mohli usporiadať takúto štúdiu, aby ste konštatovali, že spotrebované materiály nemajú žiadny vplyv na následné dojmy vyjadrené subjektmi. Keď ste vykonali porovnanie ich názorov na CCP pred a po, štatisticky by ste sa pokúsili zistiť, či došlo k štatisticky významnej detekcii zmeny v ich zobrazeniach.

Je možné, že pred a po nie sú štatisticky odlišné, a preto by ste mohli rozumne predbežne dospieť k záveru, že pri tejto konkrétnej štúdii sa nezdalo, že by zobrazené materiály (experimentálne spracovanie) znamenali rozdiel v ich dojmoch. Na druhej strane, ak by existoval štatisticky platný rozdiel, pozreli by ste sa, či after bol väčší ako predchádzajúci, čo vám umožní opatrne navrhnúť, že materiály zvýšili ich dojem (a na druhej strane mince, ak potom bolo menej ako predtým, čo by mohlo znamenať, že materiály znížili alebo znížili svoje dojmy).

Existuje veľa nepríjemných problémov, ktoré by bolo potrebné v takejto štúdii vyriešiť.

Napríklad zvyčajne chceme mať takzvanú kontrolnú skupinu, ktorú môžeme porovnávať s tými, ktoré dostávajú experimentálnu liečbu. Tu je dôvod. Predpokladajme, že akt sedenia pred kioskom pri čítaní materiálov bol skutočným základom toho, prečo sa dojmy zmenili. Je možné, že povaha spotrebovaných materiálov je z hľadiska vplyvu dojmu zhruba nepodstatná. Samotné sedenie a čítanie čohokoľvek, napríklad najnovších príbehov o mačkách, ktoré robia zábavné veci, môže stačiť. Preto by sme mohli zariadiť, aby boli niektoré subjekty v našej kontrolnej skupine, ktorá je vystavená iným materiálom na čítanie, okrem zásad ČKS a materiálov o dosiahnutých výsledkoch.

Nevieme, či sa tak stalo v tomto prípade (zdá sa, že tento aspekt zatiaľ nikto nespomenul).

Uvedomujem si, že vás už znepokojuje mediálne výbušná časť štúdie. Rýchlo sa presunieme do tejto časti.

Ako môžeme zistiť, či subjekty v tomto experimente reagovali alebo zmenili svoje dojmy v dôsledku čítania zobrazených materiálov?

Zvyčajným prostriedkom by bolo opýtať sa ich.

Možno by ste predtým spravili dotazník, ktorý by sa ich spýtal na ich dojmy z ČKS. Potom, po vystavení experimentálnej liečbe, ako pri čítaní zobrazovaných materiálov, by sme mohli podať ďalší dotazník. Odpovede poskytnuté subjektmi na základe pred a po sa potom môžu porovnať. Ak by sme použili aj kontrolnú skupinu, predpokladali by sme, že odpovede kontrolnej skupiny by sa podstatne nezmenili z predchádzajúcej na potom (podľa presvedčenia, že pozeranie sa na príbehy o šantivých mačkách by nemalo mať vplyv na ich dojmy z CCP).

Tento akt pýtania sa subjektov na ich dojmy nie je nevyhnutne taký jednoduchý, ako by sa mohlo zdať.

Predpokladajme, že subjekty v experimente získajú pocit alebo celkový posun, že chcete, aby reagovali na experimentálnu liečbu konkrétnym spôsobom. V takom prípade by mohli zámerne zveličiť svoje reakcie v záverečnej časti experimentálneho podávania. Určite ste to už videli. Ak robím test chuti novej sódy, ktorá prichádza na trh, možno by som sa správala, ako keby som si tú sódu divoko vychutnávala v nádeji, že sa možno objavím v reklame výrobcu sódy a získam svojich zaslúžených pätnásť minút slávy. .

Podstatou je, že len pýtanie sa ľudí na ich názory nie je spoľahlivým prostriedkom na meranie zmien. Je to jeden prístup. Iné prístupy by sa mohli a často využívajú.

Ako sa táto konkrétna štúdia rozhodla posúdiť reakcie subjektov?

Zjavne boli použité minimálne dve metódy. Jedna metóda pozostávala z vykonania skenovania tváre a použitia softvéru na rozpoznávanie tváre založeného na AI na posúdenie reakcií subjektov. Ďalšou metódou bola údajne určitá forma skenovania mozgových vĺn. Zatiaľ nebolo oznámené, aký typ zariadení na skenovanie mozgových vĺn sa použil, ani aký druh softvéru na analýzu mozgových vĺn založený na AI sa použil.

Rôzne správy naznačili, že štúdia uviedla toto o povahe experimentu: „Na jednej strane môže posúdiť, ako členovia strany prijali myslenie a politické vzdelanie. Štúdia údajne tiež spomínala toto: „Na druhej strane poskytne skutočné údaje pre myslenie a politické vzdelávanie, aby sa mohlo zlepšiť a obohatiť.“ Výskumná štúdia bola pripísaná tomu, že bola vykonaná pod záštitou čínskeho komplexného národného vedeckého centra Hefei.

Správy z médií naznačujú, že štúdia narážala na tvrdenie, že skeny rozpoznávania tváre a skenovania mozgových vĺn boli schopné pomôcť pri zisťovaní, že následné dojmy boli posilnené o ČKS.

Chcel by som pre vás poznamenať, že bez toho, aby sme mohli priamo preskúmať používané systémy a podrobne preskúmať výskumný dokument, nepoznáme podrobnosti o tom, ako sa tieto systémy založené na AI presne používali.

Mohlo sa stať, že subjekty reagovali skôr na experimentálne prostredie ako na experimentálnu liečbu. Každý, kto sa zúčastňuje štúdie, môže byť zo začiatku znepokojený. To by mohlo zmiasť akékoľvek úsilie o skenovanie mozgových vĺn alebo analýzu vzorov tváre. Existuje tiež šanca, že sa cítili motivovaní potešiť vedcov a rozhodli sa vymyslieť pozitívne myšlienky po tom, čo videli materiály, a to by sa teoreticky mohlo odraziť na skenoch mozgových vĺn a skenoch tváre (možno, aj keď vedzte, že existuje skvelý horlivú polemiku o platnosti takýchto tvrdení, ako za chvíľu objasním), v nádeji, že skreslia výsledky a ukážu, že boli pozitívne ovplyvnené.

Reakcia Twitteru v podstate odsúdila, že samotná predstava používania skenovania mozgových vĺn a rozpoznávania tváre pomocou AI je sama osebe otrasným a poburujúcim činom. Len ľudské monštrá by používali tieto druhy zariadení, hovoria nám niektoré z týchto tweetov.

Musím vás požiadať, aby ste si sadli a pripravili sa na niečo, čo môže byť neslušné a šokujúce prekvapenie.

Na celom svete existuje veľa výskumníkov, ktorí vo svojich výskumných štúdiách používajú rovnaké druhy technológií. Toto určite nie je prvýkrát, čo bola pri výskume použitá schopnosť skenovania mozgových vĺn na ľudských subjektoch. Toto tiež určite nebolo prvýkrát, čo bolo rozpoznávanie tváre použité na ľudských subjektoch na experimentálne účely. Dokonca aj zbežné online vyhľadávanie vám ukáže veľa a veľa experimentálnych štúdií vo všetkých krajinách a laboratóriách, ktoré používali tieto typy zariadení.

Ako už bolo povedané, ich použitie na meranie lojality ku ČKS nie je niečo, na čo by ste sa veľmi zamerali. Keď sa takáto AI používa na vládnu kontrolu, bola prekročená červená čiara, ako sa hovorí.

To je očividne mrazivá časť celej súpravy a caboodle.

Mnohí vyjadrili obavy, že ak sa vlády rozhodnú použiť technológiu skenovania mozgových vĺn a rozpoznávania tváre na uistenie sa o lojalite k režimom, ktoré sú po ruke, ocitneme sa v dystopickom svete ublíženia. Keď idete po verejnej ulici, môže sa stať, že zariadenie namontované na stĺpe verejného osvetlenia tajne určí váš kvocient lojality.

Jeden predpokladá, že ak sa zdá, že vaša tvár nenaznačuje, že ste dostatočne lojálni, alebo ak skenovanie mozgových vĺn naznačuje to isté, vládni zločinci sa môžu náhle vyrútiť a chytiť sa vás. Nervózne. Priepastný. Nesmie byť povolené.

To je podstata toho, prečo sa nad touto novinkou objavilo pobúrenie a rozhorčenie z titulku.

Predstavte si toto. Možno sa chystáme vytvoriť a potom uviesť do používania počítačové systémy, ktoré využívajú najnovšie AI na rozhodnutie, či sme lojálni alebo nie. Ak by ste sa pokúsili najať ľudí, ktorí by sedeli a robili to isté, potrebovali by ste veľa ľudí a mali by ste problém s logistikou, aby ste sa ich snažili umiestniť tak, aby si všímali každého. V prípade systému založeného na AI všetko, čo musíte urobiť, je nastaviť elektronické zariadenia na stĺpy verejného osvetlenia, strany budov atď. Skenovanie lojality môže prebiehať 24×7, kedykoľvek a na všetkých takto vybavených miestach. To sa potom môže vložiť do rozsiahlej databázy.

Stávame sa ľuďmi, ktorí sú len ozubenými kolesami v kolosovom vševidiacom a všetko sledujúcom spoločenskom utláčateľskom ekosystéme. Vidiace oko nesleduje len to, čo robíme. Je to tiež interpretácia toho, čo naše tváre tvrdia, že hovoria o našej lojalite k vláde. Aj naša myseľ má byť skúmaná, či nemá podobný hrozný dôvod.

Och!

Z toho vyplýva aj druhotná obava, aj keď možno nie taká ožehavá v porovnaní s dôsledkami Veľkého brata, ako už bolo načrtnuté.

Zamyslite sa nad týmito dvoma naliehavými otázkami:

  • Môžeme spoľahlivo tvrdiť, že skenovanie mozgových vĺn môže potvrdiť vašu lojalitu?
  • Môžeme spoľahlivo tvrdiť, že skenovanie tváre môže potvrdiť vašu lojalitu?

Vydržte, možno budete kričať z plných pľúc.

Uvedomujem si a uznávam, že vás nemusia až tak veľmi zaujímať aspekty spoľahlivosti ako také. Či sa to dá spoľahlivo urobiť, je menej dôležité ako skutočnosť, že sa to vôbec robí. Nikto by nemal byť pod takýmto drobnohľadom. Zabudnite na to, či technológia funguje na túto úlohu vhodne. Nemali by sme vykonávať túto úlohu na začiatku.

V každom prípade je odpoveďou práve teraz jasné nie, konkrétne, že existujúce systémy AI, ktoré vykonávajú akékoľvek zdanie „skenovania mozgových vĺn“ a rozpoznávania tváre, nie sú dostatočne schopné urobiť tento skok.

Možno ste v poslednej dobe videli, že niektorí tvorcovia rozpoznávania tvárí trochu ustúpili, pokiaľ ide o to, ako sa používajú ich systémy rozpoznávania tvárí. V nadchádzajúcom príspevku v stĺpci budem diskutovať o nedávnych snahách, napríklad zo strany spoločnosti Microsoft, pokúsiť sa zastaviť vlnu tých, ktorí používajú nástroje na rozpoznávanie tváre od spoločnosti Microsoft na účely, ktoré ďaleko presahujú rámec toho, čo technológia dokáže alebo by sa mala používať. . Možno vás bude zaujímať môj predchádzajúci pohľad na výčitky etiky AI, ktoré už boli dobre propagované o rozpoznávaní tváre, pozri odkaz tu. Tiež som diskutoval o aréne skenovania mozgových vĺn, pozri moju diskusiu na odkaz tu.

Stručne povedané, zatiaľ neexistujú žiadne spoľahlivé alebo rozumné prostriedky, ktoré by naznačovali, že skenovanie mozgových vĺn alebo skenovanie rozpoznávania tváre môže predstavovať niečiu lojalitu. Dokonca aj pravdepodobne základné aspekty, ako napríklad to, či môžete tieto skeny spoľahlivo korelovať s tým, či je niekto šťastný alebo smutný, sú stále diskutované. Pokúšať sa zvýšiť ante niečo také amorfné a variabilné, ako je lojalita, je príliš ďaleko.

Môžem dodať, že niektorí vrúcne veria, že sa tam nakoniec dostaneme. Preto som sa opatrne snažil poznamenať, že tam ešte nie sme, namiesto toho, aby som povedal, že sa tam nikdy nedostaneme. Nikdy je veľké slovo. Musíte si byť úplne istí, ak sa chystáte prehodiť, že to tak bude nikdy byť uskutočniteľné (majte na pamäti, že „nikdy“ zahŕňa desaťročia odteraz, storočia odteraz a tisíce alebo milióny rokov odteraz).

Niektorí reagovali na novinový príbeh o tejto čínskej laboratórnej výskumnej štúdii ako indikátora toho, ako nebezpečne svet smeruje k nevhodnému a nebezpečnému používaniu AI. O chvíľu sa s vami podelím o pohľad na to, o čom je etika AI. Pomôže vám to živšie pochopiť, prečo sa zdá, že táto konkrétna štúdia porušuje mnohé, ak nie takmer všetky všeobecne akceptované predpisy Etickej AI.

Verte tomu alebo nie, niektorí navrhli, že v súvislosti s touto konkrétnou štúdiou možno robíme horu z krtinca.

Sme my?

Protiargumentom je, že z krtinca sa čoskoro môže stať hora. V povestnej predstave snehovej gule, ktorá sa zväčšuje a zväčšuje, keď sa valí zo zasneženého kopca, musíme zabrániť tomu, aby sa snehová guľa rozbehla. Ak budeme tolerovať tieto typy štúdií, necháme túto snehovú guľu začať svoju cestu. Tým, že budeme hovoriť a vyvolávať takéto štúdie, možno môžeme predísť snehovej gule.

Jedna vec je istá, pokiaľ ide o aspekty AI, sme na pokraji otvorenia Pandorinej skrinky a otázkou zostáva, či môžeme zabrániť otvoreniu skrinky alebo aspoň nájsť nejaké prostriedky, ako sa obozretne vysporiadať s tým, čo vyjde. akonáhle krabica vypustí svoj diabolský obsah.

Ak nič iné, dúfajme, že tieto druhy mediálnych búrok podnietia rozsiahlu diskusiu o tom, ako zabránime zlému konaniu súvisiacemu s AI a odvrátime početné existenčné riziká vyvolané AI. Musíme nakopnúť naše spoločenské povedomie o etike AI a etických úvahách o AI.

Predtým, ako sa dostaneme k mäsu a zemiakom o divokých a vlnených úvahách, ktoré sú základom týchto druhov systémov umelej inteligencie, stanovme si niekoľko ďalších základov na úplne zásadné témy. Musíme sa krátko ponoriť do etiky AI a najmä do nástupu strojového učenia (ML) a hlbokého učenia (DL).

Možno ste si matne uvedomovali, že jeden z najhlasnejších hlasov v súčasnosti v oblasti AI a dokonca aj mimo oblasti AI pozostáva z volania po väčšej podobe Etickej AI. Poďme sa pozrieť na to, čo znamená odvolávať sa na etiku umelej inteligencie a etickú umelú inteligenciu. Okrem toho preskúmame, čo mám na mysli, keď hovorím o strojovom učení a hĺbkovom učení.

Jeden konkrétny segment alebo časť etiky umelej inteligencie, ktorá si získala veľkú pozornosť médií, pozostáva z umelej inteligencie, ktorá sa prejavuje nežiaducimi zaujatosťami a nerovnosťami. Možno ste si vedomí toho, že keď sa rozbehla najnovšia éra AI, došlo k obrovskému výbuchu nadšenia pre to, čo niektorí dnes nazývajú AI pre dobro. Bohužiaľ, v pätách tohto tryskajúceho vzrušenia sme začali byť svedkami AI pre zlé. Napríklad sa ukázalo, že rôzne systémy na rozpoznávanie tváre založené na AI obsahujú rasové a rodové predsudky, o ktorých som diskutoval na odkaz tu.

Snahy brániť sa AI pre zlé aktívne prebiehajú. Okrem hlučného právne v snahe o zvládnutie previnenia existuje aj výrazný tlak na prijatie etiky AI, aby sa napravila odpornosť AI. Myšlienka je taká, že by sme mali prijať a podporiť kľúčové etické princípy AI pre vývoj a zavádzanie AI, aby sme podkopali AI pre zlé a súčasne ohlasovať a podporovať preferované AI pre dobro.

V súvislosti s tým som zástancom pokusu použiť AI ako súčasť riešenia problémov s AI a bojovať s ohňom ohňom týmto spôsobom myslenia. Mohli by sme napríklad vložiť etické komponenty AI do systému AI, ktorý bude monitorovať, ako zvyšok AI robí veci, a tak potenciálne zachytiť v reálnom čase akékoľvek diskriminačné snahy, pozri moju diskusiu na odkaz tu. Mohli by sme mať aj samostatný systém AI, ktorý funguje ako typ monitora etiky AI. Systém AI slúži ako dozorca na sledovanie a zisťovanie, kedy sa iná AI dostane do neetickej priepasti (pozri moju analýzu takýchto schopností na odkaz tu).

O chvíľu sa s vami podelím o niekoľko základných princípov, ktoré sú základom etiky AI. Takýchto zoznamov sa tu a tam pohybuje veľa. Dalo by sa povedať, že zatiaľ neexistuje jednotný zoznam univerzálnej príťažlivosti a súbežnosti. To je tá nešťastná správa. Dobrou správou je, že aspoň existujú ľahko dostupné zoznamy etiky AI a bývajú dosť podobné. Celkovo to naznačuje, že formou rozumnej konvergencie svojho druhu nachádzame cestu k všeobecnej zhode toho, z čoho pozostáva etika umelej inteligencie.

Najprv si stručne popíšme niektoré z celkových etických zásad AI, aby sme ilustrovali, čo by malo byť životne dôležitým faktorom pre každého, kto vytvára, využíva alebo používa AI.

Napríklad, ako uvádza Vatikán v Rím vyzýva na etiku AI a ako som sa podrobne venoval odkaz tuToto je ich identifikovaných šesť základných etických princípov AI:

  • transparentnosť: V zásade musia byť systémy AI vysvetliteľné
  • začlenenie: Potreby všetkých ľudských bytostí musia byť brané do úvahy, aby z toho mohol mať úžitok každý, a aby všetkým jednotlivcom mohli byť ponúknuté najlepšie možné podmienky na sebavyjadrenie a rozvoj.
  • odpovedá: Tí, ktorí navrhujú a nasadzujú používanie AI, musia postupovať zodpovedne a transparentne
  • nestrannosť: Nevytvárajte ani nekonajte podľa zaujatosti, čím si zabezpečíte spravodlivosť a ľudskú dôstojnosť
  • Spoľahlivosť: Systémy AI musia byť schopné spoľahlivo fungovať
  • Bezpečnosť a súkromie: Systémy AI musia fungovať bezpečne a rešpektovať súkromie používateľov.

Ako uviedlo americké ministerstvo obrany (DoD) vo svojom Etické princípy používania umelej inteligencie a ako som sa podrobne venoval odkaz tuToto je ich šesť základných etických princípov AI:

  • Zodpovedný: Personál ministerstva obrany bude uplatňovať primeranú úroveň úsudku a starostlivosti, pričom zostane zodpovedný za vývoj, nasadenie a používanie schopností AI.
  • Spravodlivé: Ministerstvo podnikne premyslené kroky, aby minimalizovalo neúmyselné skreslenie schopností AI.
  • Vysledovateľné: Schopnosti umelej inteligencie ministerstva sa vyvinú a rozmiestnia tak, aby príslušní pracovníci primerane rozumeli technológiám, vývojovým procesom a prevádzkovým metódam použiteľným na schopnosti umelej inteligencie, vrátane transparentných a kontrolovateľných metodík, zdrojov údajov a návrhových postupov a dokumentácie.
  • spoľahlivosť: Schopnosti umelej inteligencie ministerstva budú mať explicitné, dobre definované využitie a bezpečnosť, zabezpečenie a efektívnosť takýchto schopností bude predmetom testovania a zabezpečenia v rámci týchto definovaných použití počas celého životného cyklu.
  • Riaditeľné: Ministerstvo navrhne a skonštruuje schopnosti AI tak, aby plnili zamýšľané funkcie, pričom majú schopnosť odhaliť a vyhnúť sa neúmyselným následkom a schopnosť odpojiť alebo deaktivovať nasadené systémy, ktoré prejavujú neúmyselné správanie.

Diskutoval som aj o rôznych kolektívnych analýzach etických princípov AI, vrátane toho, že som sa zaoberal súborom navrhnutým výskumníkmi, ktorí preskúmali a zhrnuli podstatu mnohých národných a medzinárodných etických zásad AI v článku s názvom „Globálna krajina etických zásad AI“ (zverejnená v príroda), a ktoré moje pokrytie skúma na odkaz tu, čo viedlo k tomuto kľúčovému zoznamu:

  • Priehľadnosť
  • Spravodlivosť a spravodlivosť
  • Neškodnosť
  • zodpovednosť
  • súkromia
  • dobročinnosť
  • Sloboda a autonómia
  • Verte
  • Udržateľnosť
  • dôstojnosť
  • Solidarita

Ako môžete priamo uhádnuť, pokúsiť sa určiť špecifiká, ktoré sú základom týchto princípov, môže byť mimoriadne ťažké. O to viac, snaha premeniť tieto široké princípy na niečo úplne hmatateľné a dostatočne podrobné na to, aby sa dali použiť pri vytváraní systémov AI, je tiež tvrdým orieškom. Celkovo je ľahké mávnuť rukou nad tým, čo sú to etické predpisy AI a ako by sa mali vo všeobecnosti dodržiavať, zatiaľ čo v kódovaní AI je oveľa komplikovanejšia situácia, keď musí ísť o skutočnú gumu, ktorá sa stretáva s vozovkou.

Princípy AI etiky majú využívať vývojári AI spolu s tými, ktorí riadia snahy o vývoj AI, a dokonca aj tí, ktorí v konečnom dôsledku nasadzujú a vykonávajú údržbu systémov AI. Všetky zainteresované strany počas celého životného cyklu vývoja a používania AI sa berú do úvahy v rámci dodržiavania zavedených noriem Etickej AI. Toto je dôležitý prvok, pretože zvyčajný predpoklad je, že „iba kóderi“ alebo tí, ktorí programujú AI, podliehajú dodržiavaniu etických pojmov AI. Ako už bolo spomenuté, na vymyslenie a nasadenie AI je potrebná dedina, v ktorej sa celá dedina musí vyznať a dodržiavať etické predpisy AI.

Uistime sa tiež, že sme na rovnakej stránke o povahe dnešnej AI.

Dnes neexistuje žiadna umelá inteligencia, ktorá by bola vnímavá. Toto my nemáme. Nevieme, či bude vnímajúca AI možná. Nikto nemôže vhodne predpovedať, či dosiahneme vnímajúcu AI, ani to, či sa vnímajúca AI nejakým zázrakom spontánne objaví vo forme výpočtovej kognitívnej supernovy (zvyčajne označovanej ako singularita, pozri moje pokrytie na odkaz tu).

Typ AI, na ktorý sa zameriavam, pozostáva z necitlivej AI, ktorú máme dnes. Ak by sme chceli divoko špekulovať o cítiaci AI, táto diskusia by sa mohla uberať radikálne iným smerom. Vnímajúca AI by mala mať ľudské kvality. Mali by ste zvážiť, že vnímajúca AI je kognitívnym ekvivalentom človeka. Navyše, keďže niektorí špekulujú, že by sme mohli mať superinteligentnú AI, je možné, že takáto AI by mohla byť inteligentnejšia ako ľudia (pre môj prieskum superinteligentnej AI ako možnosti pozri pokrytie tu).

Nechajme veci viac pri zemi a zvážme dnešnú výpočtovú necitlivú AI.

Uvedomte si, že dnešná AI nie je schopná „myslieť“ akýmkoľvek spôsobom na rovnakej úrovni ako ľudské myslenie. Keď komunikujete s Alexou alebo Siri, konverzačné schopnosti sa môžu zdať podobné ľudským schopnostiam, ale realita je taká, že sú výpočtové a chýba im ľudské poznanie. Najnovšia éra AI vo veľkej miere využíva strojové učenie (ML) a hlboké učenie (DL), ktoré využívajú porovnávanie výpočtových vzorov. To viedlo k systémom AI, ktoré vyzerajú ako ľudia. Medzitým dnes neexistuje žiadna umelá inteligencia, ktorá by mala zdanie zdravého rozumu, ani žiadny z kognitívnych zázrakov robustného ľudského myslenia.

ML/DL je forma porovnávania výpočtových vzorov. Zvyčajný prístup je taký, že zhromažďujete údaje o úlohe rozhodovania. Dáta vložíte do počítačových modelov ML/DL. Tieto modely sa snažia nájsť matematické vzorce. Po nájdení takýchto vzorov, ak sa nájdu, systém AI potom použije tieto vzory pri stretnutí s novými údajmi. Po predložení nových údajov sa na vyvodenie aktuálneho rozhodnutia použijú vzory založené na „starých“ alebo historických údajoch.

Myslím, že viete hádať, kam to smeruje. Ak ľudia, ktorí sa rozhodovali podľa vzoru, začlenili do seba nepriaznivé predsudky, je pravdepodobné, že údaje to odrážajú jemným, ale významným spôsobom. Zhoda výpočtových vzorov Machine Learning alebo Deep Learning sa jednoducho pokúsi zodpovedajúcim spôsobom matematicky napodobniť údaje. Neexistuje žiadne zdanie zdravého rozumu alebo iných vnímavých aspektov modelovania vytvoreného AI ako takého.

Okrem toho si vývojári AI nemusia uvedomiť, čo sa deje. Tajomná matematika v ML/DL môže sťažiť odhalenie teraz skrytých predsudkov. Oprávnene by ste dúfali a očakávali, že vývojári AI budú testovať potenciálne skryté predsudky, hoci je to zložitejšie, ako by sa mohlo zdať. Existuje solídna šanca, že aj pri relatívne rozsiahlom testovaní budú v modeloch zhody vzorov ML/DL stále zakomponované odchýlky.

Do istej miery by ste mohli použiť známe alebo neslávne známe príslovie o odpadkoch do odpadu. Ide o to, že je to skôr podobné zaujatostiam – in, ktoré sa zákerne naplnia, keď sa predsudky ponoria do AI. Algoritmus rozhodovania (ADM) AI je axiomaticky zaťažený nerovnosťami.

Nie dobré.

Vráťme sa k nášmu zameraniu na systémy umelej inteligencie, ktoré sa používajú na nevhodné alebo možno úplne nesprávne účely, a ako to súvisí s nedávno zverejnenou štúdiou o lojalite ČKS.

Do úvahy prichádzajú dve základné úvahy:

1) Táto inštancia AI je súčasťou rozsiahlejšieho prebiehajúceho modelu znepokojujúceho používania AI, a preto je zlovestná a otvára oči, pokiaľ ide o to, čo sa deje.

2) Mačka by mohla byť vypustená z vreca, takže ak sa takáto umelá inteligencia adoptuje v jednej krajine, môže sa ľahko rozšíriť aj do iných krajín

Začnite prvým bodom o tomto prípade, že AI je súčasťou prebiehajúceho vzoru.

Jedným z obzvlášť dôležitých základov pre to, aby sme boli touto konkrétnou štúdiou obzvlášť znepokojení, je to, že je súčasťou väčšieho modelu toho, ako sa AI snaží používať niektorí. Ak by to bola jediná takáto štúdia, aká bola kedy vykonaná, možno by sme z nej boli mierne znepokojení. Napriek tomu by to zrejme nezarezonovalo s takou vervou, akú teraz vidíme.

Toto je možno ten kvapkajúci krok smerom k niečomu, čo sa vymkne spod kontroly.

Ako sa uvádza v správach, Čína je známa tým, že trvala na výraznej lojalite voči ČKS. Okrem toho boli zavedené alebo sa zavádzajú rôzne prostriedky na zabezpečenie toho, aby ľudia boli indoktrinovaní do vládnej doktríny. Boli citované príklady predchádzajúcich štúdií, ktoré sa snažili navrhnúť algoritmy AI, ktoré by mohli zmerať myšlienkové podmienky členov strany (pozri Čínou podporovaný Časy štúdia v roku 2019, ktorý spomínal tieto snahy).

Možno si spomínate, že v roku 2018 mal viceprezident Mike Pence prejav na Hudsonovom inštitúte a zdôraznil, že „cieľom čínskych vládcov je zaviesť orwellovský systém založený na kontrole prakticky každého aspektu ľudského života“ (toto bol odkaz na implementáciu ČKS). systém hodnotenia sociálneho kreditu, téma prominentnej kontroverzie). Môžete ľahko tvrdiť, že táto nedávna štúdia CCP je ďalším krokom týmto smerom.

Nevieme, kedy a či vôbec posledná kvapka zlomí ťave chrbát, takže tieto jednorazové štúdie sa premenia na rozšírené monitorovacie systémy založené na AI.

Druhým bodom, ktorý si zaslúži pozornosť, je, že nemôžeme predpokladať, že tento typ AI bude obmedzený len na Čínu. V podstate, hoci tento typ používania AI v Číne, ktorý by sa mohol rozšíriť, je sám osebe znepokojujúci, iné krajiny by mohli robiť to isté.

Akonáhle sa hovorí, že AI na to bude pripravená na hlavný vysielací čas, nebude pravdepodobne trvať veľa, kým sa ostatné krajiny rozhodnú, že ju chcú implementovať tiež. Mačka bude von z vreca. Niektoré krajiny budú pravdepodobne používať túto AI úplne represívnym spôsobom a nebudú sa snažiť ponúkať žiadne predstieranie. Iné krajiny sa môžu zdanlivo snažiť používať tento typ AI na účely, ktoré sa javia ako prospešné, z čoho v konečnom dôsledku existuje nevýhoda, ktorej sa takmer nedá vyhnúť.

Naznačovať, že tento typ AI bude možno prijatý až vtedy, keď sa ukáže, že je pripravený na hlavný vysielací čas, je v skutočnosti trochu nesprávne pomenovanie. To, či AI môže s istotou fungovať týmto spôsobom, nemusí byť žiadnym rozdielom. AI sa dá použiť ako krycí príbeh, pozri moje vysvetlenie na odkaz tu. Bez ohľadu na to, čo je AI skutočne schopná dosiahnuť, predstava je taká, že AI môže byť užitočnou zámienkou na vyvolanie monitorovania obyvateľstva a schém merania a zabezpečenia absolútnej lojality voči orgánom.

Stavil by som sa, že v tomto bode tejto závažnej diskusie túžite po niekoľkých názorných príkladoch, ktoré by mohli ukázať túto tému. Existuje špeciálny a určite populárny súbor príkladov, ktoré sú môjmu srdcu blízke. Vidíte, ako odborník na AI vrátane etických a právnych dôsledkov ma často žiadajú, aby som identifikoval realistické príklady, ktoré predstavujú dilemy etiky AI, aby bolo možné ľahšie pochopiť trochu teoretickú povahu tejto témy. Jednou z najviac evokujúcich oblastí, ktorá názorne prezentuje tento etický problém AI, je príchod skutočne samoriadiacich áut založených na AI. Bude to slúžiť ako praktický príklad použitia alebo príklad na rozsiahlu diskusiu na túto tému.

Tu je potom pozoruhodná otázka, ktorá stojí za zamyslenie: Objasňuje príchod skutočne samoriadiacich áut založených na AI niečo o nesprávnom používaní AI, a ak áno, čo to ukazuje?

Dovoľte mi chvíľu rozbaliť otázku.

Po prvé, všimnite si, že v skutočne samoriadiacom aute nie je žiadny ľudský vodič. Majte na pamäti, že skutočne samoriadiace autá sú poháňané systémom AI. Nie je potrebný ľudský vodič za volantom, ani neexistuje ustanovenie, aby vozidlo riadil človek. Pre moje rozsiahle a neustále pokrytie autonómnych vozidiel (AV) a najmä autonómnych áut viď odkaz tu.

Rád by som ďalej objasnil, čo sa myslí, keď hovorím o skutočne samoriadiacich autách.

Porozumenie úrovniam samoriadiacich automobilov

Pre vysvetlenie, skutočne samoriadiace autá sú tie, kde AI riadi auto úplne sama a pri riadení nie je žiadna asistencia človeka.

Tieto vozidlá bez vodiča sa považujú za úroveň 4 a úroveň 5 (pozri moje vysvetlenie na tento odkaz tu), zatiaľ čo auto, ktoré vyžaduje, aby sa ľudský vodič podieľal na riadení, sa zvyčajne považuje za úroveň 2 alebo úroveň 3. Autá, ktoré sa podieľajú na úlohe riadenia, sú opísané ako poloautonómne a zvyčajne obsahujú rôzne automatizované doplnky, ktoré sa označujú ako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 ešte nie je skutočné samoriadiace auto a ešte ani nevieme, či to bude možné dosiahnuť, ani ako dlho bude trvať, kým sa tam dostaneme.

Medzitým sa úsilie úrovne 4 postupne pokúša získať určitú trakciu podstupovaním veľmi úzkych a selektívnych testov na verejných cestách, hoci existuje polemika o tom, či by toto testovanie malo byť povolené ako také (v experimente sme všetci pokusnými králikmi na život a na smrť). ktoré sa odohrávajú na našich diaľniciach a vedľajších cestách, niektorí tvrdia, pozri moje spravodajstvo na tento odkaz tu).

Keďže poloautonómne automobily si vyžadujú vodiča, prijatie týchto typov automobilov sa nebude výrazne líšiť od riadenia konvenčných vozidiel, takže o tejto téme nie je samo o sebe veľa nových (ako vidíte, uvidíte) za okamih sa spravidla použijú nasledujúce body).

V prípade autonómnych automobilov je dôležité, aby verejnosť musela byť upozornená na rušivý aspekt, ktorý sa objavuje v poslednej dobe, a to napriek tomu, že napriek tým vodičom, ktorí neustále vysielajú svoje videá, ktoré zaspávajú za volantom automobilu úrovne 2 alebo 3 , musíme sa vyhnúť tomu, aby sme boli uvedení do omylu v presvedčenie, že vodič môže odvádzať svoju pozornosť od úlohy pri riadení čiastočne autonómneho vozidla.

Ste zodpovednou stranou za jazdné vlastnosti vozidla bez ohľadu na to, do akej miery by sa automatizácia mohla hodiť na úroveň 2 alebo úroveň 3.

Samoriadiace autá a zneužívanie AI

Pri vozidlách s vlastným riadením na úrovni 4 a 5 sa do úlohy vedenia vozidla nebude podieľať ľudský vodič.

Všetci cestujúci budú cestujúcimi.

AI robí jazdu.

Jedným z aspektov, o ktorých je potrebné okamžite diskutovať, je skutočnosť, že AI zapojená do dnešných systémov riadenia AI nie je vnímavá. Inými slovami, AI je celkom kolektív počítačového programovania a algoritmov a je nepochybne neschopný uvažovať rovnakým spôsobom ako ľudia.

Prečo je tento zvýšený dôraz na to, aby AI nebola vnímavá?

Pretože by som chcel zdôrazniť, že keď diskutujem o úlohe jazdného systému AI, nepripisujem AI ľudské vlastnosti. Uvedomte si, že v dnešnej dobe pretrváva nebezpečná tendencia k antropomorfizácii AI. Ľudia v podstate priraďujú dnešnému UI sentiment podobný človeku, a to aj napriek nepopierateľnému a nespochybniteľnému faktu, že zatiaľ taký AI neexistuje.

S týmto objasnením si môžete predstaviť, že systém riadenia umelej inteligencie nebude natívne nejako „vedieť“ o aspektoch riadenia. Vedenie vozidla a všetko, čo k tomu patrí, bude potrebné programovať ako súčasť hardvéru a softvéru samostatne riadeného automobilu.

Poďme sa ponoriť do nespočetného množstva aspektov, ktoré sa budú hrať na túto tému.

Po prvé, je dôležité si uvedomiť, že nie všetky autá s umelou inteligenciou sú rovnaké. Každá automobilka a technologická firma s vlastným pohonom pristupuje k navrhovaniu samoriadiacich áut. Preto je ťažké urobiť rozsiahle vyhlásenia o tom, čo AI riadiace systémy urobia alebo neurobia.

Okrem toho, kedykoľvek sa uvádza, že riadiaci systém AI nerobí konkrétne veci, neskôr to môžu predbehnúť vývojári, ktorí počítač v skutočnosti naprogramujú tak, aby to urobil. Krok za krokom sa systémy riadenia AI postupne vylepšujú a rozširujú. Existujúce obmedzenie dnes už nemusí existovať v budúcej iterácii alebo verzii systému.

Dúfam, že to poskytuje dostatočnú litániu upozornení na podloženie toho, čo sa chystám povedať.

Poďme si načrtnúť scenár autonómneho auta, ktoré by mohlo využiť AI útržkovitým alebo nesprávnym spôsobom.

Podelím sa s vami o niektoré dôsledky samoriadiaceho auta založeného na AI, ktoré by vás mohli triasť a byť vyrušovaní. To sú aspekty, o ktorých v súčasnosti takmer nikto nediskutuje. Opakovane som na tieto záležitosti poukazoval, aj keď otvorene uznávam, že kým nebudeme prevládať v autonómnych autách, nedostaneme sa príliš do pozornosti, pokiaľ ide o to, že spoločnosť bude znepokojená alebo rozrušená tým, čo sa dnes javí ako len abstraktné pojmy. .

Ste pripravení?

Začneme položením základov.

Samoriadiace autá založené na AI budú, rozumne, vybavené videokamerami. To umožňuje samoriadiacemu vozidlu prijímať video snímky z jazdnej scény. Riadiaci systém AI, ktorý beží na počítačoch v samoriadiacom aute, je zase určený na to, aby výpočtovo preskúmal zozbierané video a zistil, kde je cesta, kde sú autá v okolí, kde sú chodci atď. Uvedomujem si, že prednášam 101 zásad samoriadiacich áut.

Na exteriéri autonómneho vozidla sú namontované videokamery, ktoré smerujú von. Okrem toho môžete vo všeobecnosti očakávať, že vo vozidle alebo vo vnútri vozidla budú kamery namierené dovnútra do interiéru samoriadiaceho auta. Prečo tak? Jednoduché, pretože video zachytávajúce dianie vo vnútri autonómneho vozidla bude mať veľa dôležitých využití.

Keď idete jazdiť v samoriadiacom aute, už nemusíte byť vodičom. Čo potom budete robiť v samoriadiacom aute?

Jedna vec, ktorú by ste mohli urobiť, by bolo komunikovať s ostatnými doma alebo v kancelárii. Tu ste, na ceste do práce, čo znamená, že vám zaberie hodinu jazdy autom a už môžete začať svoj pracovný deň online interaktívnou reláciou v reálnom čase podobnú zoomu. Vidia vás vďaka kamerám smerujúcim dovnútra do samoriadiaceho auta. Možno ich vidieť na LED obrazovke vo vnútri samoriadiaceho auta. Na konci dňa, keď sa vraciate domov, môžete urobiť podobnú interaktívnu video diskusiu so svojimi deťmi, keď si začínajú robiť domáce úlohy na večer.

Ďalšie využitie by bolo na vyučovanie. Teraz, keď už nemusíte strácať čas jazdou, môžete premeniť tento čas v samoriadiacom aute na zlepšenie svojich schopností alebo získanie certifikátu či titulu. Prostredníctvom kamier smerujúcich dovnútra vás môže váš inštruktor vidieť a diskutovať o tom, ako váš tréning prebieha.

Ďalším využitím by bolo pokúsiť sa zabezpečiť, aby sa jazdci v samoriadiacich autách nezbláznili. V aute poháňanom ľuďmi je vodičom dospelá osoba, ktorá zvyčajne bráni jazdcom robiť bláznivé veci, ako je označovanie interiéru graffiti. Čo sa stane s autonómnymi autami založenými na AI? Niektorí sa obávajú, že sa jazdci rozhodnú roztrhať interiér vozidiel. Aby sa tomu zabránilo, spoločnosť na zdieľanie jázd, ktorá nasadzuje autonómne autá, pravdepodobne použije dovnútra smerujúce videokamery na sledovanie toho, čo ľudia robia vo vnútri autonómneho vozidla.

Predpokladám, že ste presvedčení, že budeme mať okrem kamier, ktoré smerujú von, aby rozlíšili scénu jazdy, aj videokamery, ktoré budú smerovať do interiéru samoriadiacich áut.

Teraz ste pripravení na to, čo som označil ako túlavé oko, pozri moju analýzu na odkaz tu.

Najprv zvážte videokamery, ktoré smerujú von.

Kamkoľvek sa samoriadiace auto dostane, bude potenciálne schopné nahrávať na video čokoľvek, čo kamery uvidia. Samoriadiace auto, ktoré odvezie niekoho z domu a odvezie ho do obchodu s potravinami, prejde štvrťou a video zaznamená nielen vozovku, ale aj všetko ostatné, čo sa deje v dohľade. Otec a syn hrajúci sa na ich predzáhradke. Rodina sediaca na ich prednej verande. Ide to ďalej a ďalej.

Momentálne máme na verejných cestách tak málo samoriadiacich áut, že táto schopnosť zachytiť video z každodenných činností je pomerne vzácna a nepodstatná.

Predstavte si, že v konečnom dôsledku dosiahneme bezpečné a rozšírené samoriadiace autá. Tisíce z nich. Možno milióny. Dnes máme v USA asi 250 miliónov áut poháňaných ľuďmi. Nakoniec ich do značnej miery nahradia samoriadiace autá alebo sa už nebudú používať a na našich cestách budeme mať prevažne samoriadiace autá. Tieto samoriadiace autá poháňa AI a ako také môžu jazdiť v podstate 24×7. Žiadne prestávky na odpočinok, žiadne prestávky v kúpeľni.

Údaje o videu je možné z týchto samoriadiacich áut nahrať prostredníctvom elektronických sieťových pripojení OTA (Over-The-Air). Autonómne autá budú používať OTA na stiahnutie najnovších aktualizácií softvéru AI do vozidla. Okrem toho je možné OTA použiť na nahrávanie údajov z autonómneho auta do cloudovej databázy.

Celkovo by bolo možné tieto nahrané údaje spojiť. Pomocou prešívania by ste mohli potenciálne poskladať každodenné príchody a odchody každého, kto vystúpil v ktorýkoľvek deň von v akomkoľvek prostredí, ktoré vo veľkej miere využívalo samoriadiace autá.

To je to potulné oko, pred ktorým som varoval.

Teraz môžeme zaradiť štúdiu ČKS do tohto druhu schopností. Predpokladajme, že vláda má prístup ku všetkým týmto zozbieraným video dátam. Potom by mohli použiť algoritmus rozpoznávania tváre založený na AI, aby zistili, kam ste išli a v ktorú dennú dobu počas vašich každodenných ciest životom. Okrem toho by pravdepodobne mohli použiť svoj „vernostný“ analyzátor založený na AI, aby zistili, či sa zdá, že máte na tvári lojálny výraz alebo nie.

Len si predstavte, že v utorok popoludní ste si išli dať sendvič do miestnej reštaurácie. Po vozovke prechádzali samojazdiace autá. Všetky z mnohých videí vás zachytili, keď ste išli na päťminútovú prechádzku, aby ste sa najedli. Údaje boli nahrané do centralizovanej databázy. Vláda na údajoch spustila svoj program rozpoznávania tváre AI.

Ukázalo sa, že AI „určila“, že máte na tvári nelojálny výraz.

Možno sa tento nelojálny pohľad stal len na chvíľu. Čakali ste na rohu ulice, kým sa zmení svetlo, aby ste mohli prejsť cez ulicu do reštaurácie. V tej chvíli ste mali mierne znechutenie, že ste museli príliš dlho čakať na symbol Walk. Bol to možno náznak vašej nelojálnosti voči vláde?

Áno, výpočtovo vypočítaná AI, v tom čase ste boli značne nelojálni. Keď sa v tú noc vrátite domov, vláda zariadila vaše zatknutie.

Ale počkajte, je toho viac.

Pamätajte, že aj videokamery smerujú dovnútra.

V ten istý utorok, keď ste išli do práce v samoriadiacom aute, videokamery zachytávali každý váš moment. Toto bolo nahrané do centralizovanej databázy. Softvér AI, ktorý analyzuje vzory tváre z hľadiska nelojálnosti, vykonal výpočtovú analýzu vašich výrazov tváre počas cesty do kancelárie.

V jednej chvíli ste sa náhodne pozerali von z autonómneho vozidla a všimli ste si stavebného robotníka, ktorý čiastočne blokoval vozovku a spôsobil, že systém riadenia AI spomalil samoriadiace auto. Na zlomok sekundy tvoja tvár zaregistrovala výsmešný pohľad na tohto stavebného robotníka, ktorý spomaľuje premávku.

Analýza vzorov tváre AI to interpretovala ako znak nelojálnosti voči vláde.

Dva údery proti vám v jeden deň.

Žijete na tenkom ľade.

Samozrejme, či má AI „správnu“ alebo „nesprávnu“ schopnosť určiť vašu lojalitu, je v tomto kontexte takmer nepodstatné. Podstatou je, že na tento účel bola zavedená AI. Ľuďom, ktorí nasadzujú AI, môže alebo nemusí byť jedno, či je AI vhodná na tento typ úlohy. AI umožňuje vládnu kontrolu bez ohľadu na samotnú technologickú platnosť.

To pokrýva skenovanie tváre.

Ak nakoniec máme nejaké prenosné a cenovo výhodné zariadenia na vykonávanie (údajného) skenovania mozgových vĺn, určite sa to dá zahrnúť aj do samoriadiacich áut. Videokamery sú teraz istá vec. Možnosť mať zariadenia na skenovanie mozgových vĺn tohto kalibru nie je momentálne v pláne, ale je jasné, že je to niečo, čo sa plánuje do budúcnosti.

Pre môj prieskum toho, ako by sa vláda mohla pokúsiť ovládnuť obyvateľstvo ovládnutím samoriadiacich áut, pozri odkaz tu. Existuje podobná možnosť, že by sa o to mohol pokúsiť aj škodlivý aktér, viď odkaz tu. Nie sú to zamýšľané taktiky zastrašovania, pokiaľ ide o pokrytie týchto súvisiacich tém, ale namiesto toho ide o upozornenie na dôležitosť kybernetickej bezpečnosti a iných preventívnych opatrení, ktoré sa ako spoločnosť musíme snažiť prijať v súvislosti s nástupom všadeprítomných samoriadiacich áut a iné autonómne vozidlá.

záver

Chcel by som rýchlo pokryť jeden ďalší aspekt AI používanej na zisťovanie lojality, o ktorom si myslím, že je to trochu samostatná téma, ale niektoré tweety a sociálne médiá ju obťažujú.

Už som spomenul, že nemáme vnímajúcu AI a nevieme, či a kedy budeme mať. Poďme sa zabaviť myšlienkou, že budeme mať vnímajúcu AI. V takom prípade zvážte nasledujúci scenár.

Prostredníctvom necitlivej AI sme sa rozhodli zaviesť rozšírené používanie AI, ktorá výpočtovo zisťuje, či sú ľudia lojálni k svojej vláde, pomocou skenovania tváre, skenovania mozgových vĺn atď. Toto je úplne riadené a používané ľuďmi v autorite. To je znepokojivý scenár, ktorý som len pred chvíľou opísal.

Čas zvýšiť ante.

AI sa stáva vnímavou. Teraz sme potenciálne odovzdali tejto vnímajúcej AI rozšírenú schopnosť pravdepodobne identifikovať lojalitu a nelojalitu u ľudí. Zločinná umelá inteligencia, ktorá uvažuje o vyhladení ľudí, by mohla využiť túto schopnosť, aby rozhodla, že ľudia budú skutočne nelojálni a mali by byť úplne zničení. Alebo možno práve tí ľudia, ktorí prejavujú prejav nelojálnosti prostredníctvom svojej tváre alebo myšlienok, budú obzvlášť vyradení.

Ďalší uhol pohľadu je, že AI si želá zotročiť ľudí, pozri moju diskusiu na odkaz tu.

Zdalo by sa, že sme dali AI dokonalý dar na vykonanie tohto hľadania. Existujúca infraštruktúra, ktorú sme zaviedli, umožňuje AI pozorne sledovať nás ľudí. Tí, ktorí zrejme vyjadrili nelojálny náznak tváre alebo mysleli na vládcu AI, pocítia hnev AI.

Uvedomujem si, že som povedal, že toto je predzvesť. Nie som si istý, či je to tak. Zdá sa mi, že bez ohľadu na to, či máme vládcov umelej inteligencie, ktorí priamo rozhodujú o našom osude, oproti ľudským vládcom, ktorí na určenie lojality používajú systém umelej inteligencie, no, ani jeden z týchto návrhov sa nezdá byť obzvlášť žiaduci.

Zatiaľ posledný komentár.

Rímsky učenec a filozof Marcus Tullius Cicero vyhlásil, že nie je nič ušľachtilejšie, nič úctyhodnejšie ako lojalita. Možno necháme AI, aby nás predbehla a stala sa nástrojom na získanie a zabezpečenie „lojality“ strašnými prostriedkami.

Užitočný dôvod, prečo zaradiť etiku AI na začiatok nášho zoznamu úloh.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- atestácia-ktorá-môže predznamenávať-utláčateľské-autonómne-systémy/