Etika umelej inteligencie a zákon o umelej inteligencii kladú tvrdé otázky o tomto novom prísľube tým, že tvorcovia tancujúcich robotov tvrdia, že odvrátia umelú výzbroj

Možno ste minulý týždeň videli v správach alebo ste si všimli na sociálnych médiách ohlásený prísľub niektorých výrobcov robotov o ich deklarovaných cieľoch vyhnúť sa umelej inteligencii univerzálnych robotov. O chvíľu vás prevediem podrobnosťami, takže sa nebojte, ak ste túto záležitosť nezachytili.

Reakcia na toto vyhlásenie bola rýchla a, možno ako obvykle v našej polarizovanej spoločnosti, bola pochvalná a niekedy aj posmešne kritická alebo priam odporne skeptická.

Je to príbeh o dvoch svetoch.

V jednom svete niektorí hovoria, že presne toto potrebujeme zodpovedný Vývojári robotov AI vyhlásiť.

Vďaka bohu, že ste na správnej strane problému, ktorý bude postupne čoraz viditeľnejší a znepokojivejší. Títo roztomilí tancujúci roboti sú znepokojujúci, pretože je celkom ľahké ich prestaviť tak, aby nosili zbrane a boli použité tými najhoršími spôsobmi (môžete si to overiť sami na sociálnych sieťach a existuje množstvo videí, ktoré predvádzajú tancujúce roboty vyzbrojené guľometmi a iná výzbroj).

Druhá strana tejto mince hovorí, že takzvaný sľub nie je nič iné ako marketingový trik alebo trik v oblasti vzťahov s verejnosťou (poznámka na okraj, pozná niekto rozdiel medzi sľubom a darom?). Pochybovači však nabádajú, že ide o bezuzdnú cnostnú signalizáciu v kontexte tancujúcich robotov. Vidíte, nariekanie nad tým, že univerzálne roboty môžu byť vyzbrojené zbraňami, určite stojí za to a vážne žiadané zváženie, hoci len tvrdenie, že výrobca to neurobí, je pravdepodobne planý sľub, niektorí trvajú na tom.

Celkovo vzaté, celá záležitosť prináša pomerne rozsiahly súbor úvah o etike AI a zákonoch AI. Dôkladne rozbalíme tému a uvidíme, ako je to dvojitý úder etického a legálneho bahna AI. Moje pokračujúce a rozsiahle pokrytie etiky AI a práva AI nájdete v časti odkaz tu a odkaz tu, Len aby sme vymenovali niekoľko.

Počas tejto diskusie sa budem odvolávať aj na moje predchádzajúce analýzy nebezpečenstiev umelej inteligencie, ako je napríklad moje hĺbkové hodnotenie na odkaz tu. Možno by ste sa chceli pozrieť na tento diskurz, kde nájdete ďalšie podrobnosti zo zákulisia.

Otvorený list, ktorý otvára plechovku červov

Začnime túto analýzu podrobným podrobným preskúmaním otvoreného listu, ktorý nedávno zverejnilo šesť pomerne známych pokročilých výrobcov robotov, konkrétne Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics a Unitree. Celkovo sa domnievam, že ste videli hlavne robotov Boston Dynamics, ako sú napríklad tí, ktorí skákajú po štyroch. Vyzerajú, akoby sa podobali psom a my sa tešíme, keď ich vidíme pobehovať.

Ako som už predtým a opakovane varoval, používanie takýchto „tancujúcich“ robotov ako prostriedku na presvedčenie širokej verejnosti, že tieto roboty sú roztomilé a rozkošné, je žalostne zavádzajúce a naráža na množstvo úskalí ich antropomorfizácie. Začneme myslieť na tieto tvrdené kusy kovu a plastu, ako keby boli ekvivalentom plyšového verného psa. Naša ochota prijať týchto robotov je založená na falošnom pocite bezpečia a istoty. Iste, musíte zarobiť peniaze a pravdepodobnosť, že to urobíte, sa zvýši prechádzkou okolo tancujúcich robotov, ale to, žiaľ, vynecháva alebo zdanlivo zakrýva skutočnú skutočnosť, že títo roboti sú roboti a že AI ovládajúca roboty môže byť vymyslená nesprávne. alebo sa pokaziť.

Zvážte tieto dôsledky AI (výňatok z môjho článku o umelej inteligencii, ktorý nájdete na adrese odkaz tu):

  • AI sa môže stretnúť s chybou, ktorá spôsobí, že sa pomýli
  • AI môže byť preťažená a zablokovanie nereaguje
  • AI môže obsahovať chyby vývojára, ktoré spôsobujú nevyspytateľné správanie
  • AI môže byť poškodená implantovaným vírusom zločinca
  • AI môžu prevziať kyberhackeri v reálnom čase
  • Umelá inteligencia môže byť považovaná za nepredvídateľnú kvôli zložitosti
  • AI môže výpočtovo urobiť „nesprávne“ rozhodnutie (relatívne)
  • Atď

Toto sú body týkajúce sa AI, ktorá je skutočne navrhnutá na začiatku, aby urobila správnu vec.

Okrem týchto úvah musíte zahrnúť systémy AI vytvorené od začiatku, aby robili zlé veci. Môžete mať AI, ktorá je vyrobená na prospešné účely, často označovaná ako AI pre dobro. Môžete mať aj AI, ktorá je zámerne vyrobená na zlé účely, tzv AI pre zlé. Okrem toho môžete mať AI pre dobro ktorý je poškodený alebo prerobený do stavu AI pre zlé.

Mimochodom, nič z toho nemá nič spoločné s tým, že sa AI stáva vnímavou, čo spomínam preto, lebo niektorí neustále vyhlasujú, že dnešná AI je buď vnímavá, alebo je na pokraji vnímania. Nie tak. Rozoberám tieto mýty vo svojej analýze na odkaz tu.

Uistime sa teda, že sme na rovnakej vlne, pokiaľ ide o povahu dnešnej AI.

Dnes neexistuje žiadna umelá inteligencia, ktorá by bola vnímavá. Toto my nemáme. Nevieme, či bude vnímajúca AI možná. Nikto nemôže vhodne predpovedať, či dosiahneme vnímajúcu AI, ani to, či sa vnímajúca AI nejakým zázrakom spontánne objaví vo forme výpočtovej kognitívnej supernovy (zvyčajne označovanej ako singularita, pozri moje pokrytie na odkaz tu).

Typ AI, na ktorý sa zameriavam, pozostáva z necitlivej AI, ktorú máme dnes. Ak by sme chceli divoko špekulovať o vnímajúcej AI, táto diskusia by sa mohla uberať radikálne iným smerom. Vnímajúca AI by mala mať ľudské kvality. Mali by ste zvážiť, že vnímajúca AI je kognitívnym ekvivalentom človeka. Navyše, keďže niektorí špekulujú, že by sme mohli mať superinteligentnú AI, je možné, že takáto AI by mohla byť inteligentnejšia ako ľudia (pre môj prieskum superinteligentnej AI ako možnosti pozri pokrytie tu).

Dôrazne by som odporučil, aby sme veci držali pri zemi a zvážili dnešnú výpočtovú necitlivú AI.

Uvedomte si, že dnešná AI nie je schopná „myslieť“ akýmkoľvek spôsobom na rovnakej úrovni ako ľudské myslenie. Keď komunikujete s Alexou alebo Siri, konverzačné schopnosti sa môžu zdať podobné ľudským schopnostiam, ale realita je taká, že sú výpočtové a chýba im ľudské poznanie. Najnovšia éra AI vo veľkej miere využíva strojové učenie (ML) a hlboké učenie (DL), ktoré využívajú porovnávanie výpočtových vzorov. To viedlo k systémom AI, ktoré vyzerajú ako ľudia. Medzitým dnes neexistuje žiadna umelá inteligencia, ktorá by mala zdanie zdravého rozumu, ani žiadny z kognitívnych zázrakov robustného ľudského myslenia.

Buďte veľmi opatrní pri antropomorfizácii dnešnej AI.

ML/DL je forma porovnávania výpočtových vzorov. Zvyčajný prístup je taký, že zhromažďujete údaje o úlohe rozhodovania. Dáta vložíte do počítačových modelov ML/DL. Tieto modely sa snažia nájsť matematické vzorce. Po nájdení takýchto vzorov, ak sa nájdu, systém AI potom použije tieto vzory pri stretnutí s novými údajmi. Po predložení nových údajov sa na vyvodenie aktuálneho rozhodnutia použijú vzory založené na „starých“ alebo historických údajoch.

Myslím, že viete hádať, kam to smeruje. Ak ľudia, ktorí sa rozhodovali podľa vzoru, začlenili do seba nepriaznivé predsudky, je pravdepodobné, že údaje to odrážajú jemným, ale významným spôsobom. Zhoda výpočtových vzorov Machine Learning alebo Deep Learning sa jednoducho pokúsi zodpovedajúcim spôsobom matematicky napodobniť údaje. Neexistuje žiadne zdanie zdravého rozumu alebo iných vnímavých aspektov modelovania vytvoreného AI ako takého.

Okrem toho si vývojári AI nemusia uvedomiť, čo sa deje. Tajomná matematika v ML/DL môže sťažiť odhalenie teraz skrytých predsudkov. Oprávnene by ste dúfali a očakávali, že vývojári AI budú testovať potenciálne skryté predsudky, hoci je to zložitejšie, ako by sa mohlo zdať. Existuje solídna šanca, že aj pri relatívne rozsiahlom testovaní budú v modeloch porovnávania vzorov ML/DL stále zakomponované odchýlky.

Do istej miery by ste mohli použiť známe alebo neslávne známe príslovie o odpadkoch do odpadu. Ide o to, že je to skôr podobné zaujatostiam – in, ktoré sa zákerne naplnia, keď sa predsudky ponoria do AI. Algoritmus rozhodovania (ADM) AI je axiomaticky zaťažený nerovnosťami.

Nie dobré.

To všetko má mimoriadne významné dôsledky na etiku AI a ponúka praktické okno do získaných skúseností (ešte predtým, ako sa stanú všetky lekcie), pokiaľ ide o uzákonenie AI.

Okrem používania etických zásad AI vo všeobecnosti existuje zodpovedajúca otázka, či by sme mali mať zákony upravujúce rôzne spôsoby použitia AI. Na federálnej, štátnej a miestnej úrovni sa hromadia nové zákony, ktoré sa týkajú rozsahu a povahy toho, ako by mala byť navrhnutá AI. Snaha vypracovať a prijať takéto zákony je postupná. Etika AI slúži prinajmenšom ako zvažovaná prestávka a takmer určite bude do určitej miery priamo začlenená do týchto nových zákonov.

Uvedomte si, že niektorí neústupne tvrdia, že nepotrebujeme nové zákony, ktoré pokrývajú AI, a že naše existujúce zákony sú dostatočné. Varujú pred tým, že ak prijmeme niektoré z týchto zákonov AI, zabijeme zlatú hus tým, že potlačíme pokroky v AI, ktoré ponúkajú obrovské spoločenské výhody.

V predchádzajúcich stĺpcoch som popísal rôzne národné a medzinárodné snahy o vytvorenie a prijatie zákonov regulujúcich AI, pozri odkaz tu, napríklad. Zaoberal som sa aj rôznymi princípmi a usmerneniami etiky umelej inteligencie, ktoré identifikovali a prijali rôzne národy, vrátane napríklad úsilia Organizácie Spojených národov, ako je súbor etiky umelej inteligencie UNESCO, ktorý prijalo takmer 200 krajín, pozri odkaz tu.

Tu je užitočný základný zoznam etických kritérií alebo charakteristík AI systémov AI, ktoré som predtým podrobne preskúmal:

  • Priehľadnosť
  • Spravodlivosť a spravodlivosť
  • Neškodnosť
  • zodpovednosť
  • súkromia
  • dobročinnosť
  • Sloboda a autonómia
  • Verte
  • Udržateľnosť
  • dôstojnosť
  • Solidarita

Predpokladá sa, že tieto princípy etiky AI budú vážne využívať vývojári AI spolu s tými, ktorí riadia úsilie o vývoj AI, a dokonca aj tými, ktorí v konečnom dôsledku nasadzujú a vykonávajú údržbu systémov AI.

Všetky zainteresované strany počas celého životného cyklu vývoja a používania AI sa zohľadňujú v rámci dodržiavania zavedených noriem Etickej umelej inteligencie. Toto je dôležitý prvok, pretože zvyčajný predpoklad je, že „iba kóderi“ alebo tí, ktorí programujú AI, podliehajú dodržiavaniu etických pojmov AI. Ako už bolo zdôraznené vyššie, na vymyslenie a nasadenie AI je potrebná dedina, v ktorej musí byť celá dedina oboznámená a dodržiavať etické predpisy AI.

Teraz, keď som položil užitočný základ pre vstup do otvoreného listu, sme pripravení sa do toho pustiť.

Oficiálny názov predmetu otvoreného listu je tento:

  • "Otvorený list robotickému priemyslu a našim komunitám, roboty na všeobecné použitie by nemali byť vyzbrojené“ (ako je zverejnené online).

Zatiaľ je všetko dobré.

Názov takmer vyzerá ako zmrzlina a jablkový koláč. Ako by to mohol niekto spochybniť ako niekdajšiu výzvu, aby sa vyhli AI robotom?

Čítajte ďalej a uvidíte.

Po prvé, ako krmivo na zváženie, tu je oficiálny úvodný odsek otvoreného listu:

  • „Sme jedny z popredných svetových spoločností, ktoré sa venujú zavádzaniu nových generácií pokročilej mobilnej robotiky do spoločnosti. Tieto nové generácie robotov sú dostupnejšie, ľahšie ovládateľné, autonómnejšie, cenovo dostupnejšie a adaptabilnejšie ako predchádzajúce generácie a sú schopné navigovať na miesta, ktoré boli predtým neprístupné pre automatizované alebo diaľkovo ovládané technológie. Veríme, že pokročilé mobilné roboty poskytnú spoločnosti veľký úžitok ako kolegovia v priemysle a spoločníci v našich domovoch“ (podľa zverejneného online).

Slnečnou stránkou nástupu týchto typov robotov je, že môžeme očakávať, že sa objavia mnohé skvelé výhody. Niet pochýb o tom. Možno máte doma robota, ktorý dokáže vykonávať činnosti podobné Jetsonovi, ako je upratovanie domu, umývanie riadu a iné domáce práce. Budeme mať pokročilé roboty na použitie v továrňach a výrobných zariadeniach. Roboty sa môžu potenciálne plaziť alebo manévrovať do úzkych priestorov, napríklad keď sa zrúti budova a ide o záchranu ľudských životov. A tak ďalej.

Okrem toho by vás mohlo zaujímať moje nedávne oku kritické spravodajstvo o Tesla AI Day, na ktorom Elon Musk vykreslil nejaké chodiace roboty ako budúcnosť pre Teslu a spoločnosť, pozri odkaz tu.

Späť k veci. Keď vážne diskutujeme o tancujúcich robotoch alebo chodiacich robotoch, musíme dôkladne brať do úvahy kompromisy alebo celkovú návratnosť investícií (ROI) tohto použitia AI. Nemali by sme dovoliť, aby sme sa prehnane zamilovali do výhod, keď treba zvážiť aj náklady.

Lesklá nová hračka môže mať dosť ostré hrany.

To všetko podnecuje dôležitý, ale trochu tichý bod, že časť dôvodu, prečo teraz vzniká problém AI zbraní, je spôsobený pokrokom AI smerom k autonómnej činnosti. Zvyčajne sme očakávali, že zbrane sú vo všeobecnosti ovládané ľuďmi. Človek sa rozhodne, či vystrelí alebo použije zbraň. Pravdepodobne môžeme brať tohto človeka na zodpovednosť za svoje činy.

Umelá inteligencia, ktorá je navrhnutá tak, aby fungovala autonómne, alebo ktorá môže byť oklamaná, by zdanlivo vyradila človeka zo slučky. AI potom algoritmicky robí výpočtové rozhodnutia, ktoré môžu skončiť zabitím alebo zranením ľudí. Okrem zjavných obáv z nedostatočnej kontroly nad AI máte tiež výčitky, že by sme mohli mať náročný čas pripisovať zodpovednosť za činy AI. Nemáme človeka, ktorý by bol naším zjavným podnecovateľom.

Uvedomujem si, že niektorí veria, že by sme mali jednoducho a priamo brať AI na zodpovednosť za jej činy, ako keby AI nadobudla vedomie alebo inak získala právnu osobu (pozri moje spravodajstvo o debatách o AI získavaní právnickej osoby na odkaz tu). Zatiaľ to nebude fungovať. Budeme musieť vystopovať AI k ľuďom, ktorí ju vymysleli alebo vytvorili. Nepochybne sa pokúsia legálne vyhnúť zodpovednosti tým, že sa pokúsia tvrdiť, že AI prekročila rámec toho, čo si predstavovali. Toto je narastajúci spor, s ktorým sa musíme vysporiadať (pozrite si moje spisy o zákone AI, kde nájdete informácie o príslušných sporných otázkach).

Organizácia Spojených národov (OSN) prostredníctvom Dohovoru o určitých konvenčných zbraniach (CCW) v Ženeve ustanovila jedenásť nezáväzných hlavných princípov smrteľných autonómnych zbraní, ako uvádza oficiálna správa zverejnená online (zahŕňajúca odkazy na príslušné medzinárodné humanitárne právo alebo ustanovenia MHP) , počítajúc do toho:

a) Medzinárodné humanitárne právo sa naďalej plne uplatňuje na všetky zbraňové systémy vrátane potenciálneho vývoja a používania smrtiacich autonómnych zbraňových systémov;

b) Ľudská zodpovednosť za rozhodnutia o použití zbraňových systémov musí zostať zachovaná, pretože zodpovednosť nemožno preniesť na stroje. Toto by sa malo zvážiť počas celého životného cyklu zbraňového systému;

c) Interakcia medzi človekom a strojom, ktorá môže mať rôzne formy a môže sa implementovať v rôznych fázach životného cyklu zbrane, by mala zabezpečiť, že potenciálne využitie zbraňových systémov založených na nových technológiách v oblasti smrtiacich autonómnych zbraňových systémov dodržiavanie platného medzinárodného práva, najmä MHP. Pri určovaní kvality a rozsahu interakcie človek-stroj by sa mal zvážiť celý rad faktorov vrátane operačného kontextu a charakteristík a schopností zbraňového systému ako celku;

d) Zodpovednosť za vývoj, rozmiestnenie a používanie akéhokoľvek vznikajúceho zbraňového systému v rámci CCW sa musí zabezpečiť v súlade s platným medzinárodným právom, a to aj prostredníctvom prevádzky takýchto systémov v rámci zodpovedného reťazca ľudského velenia a kontroly;

e) V súlade so záväzkami štátov podľa medzinárodného práva pri štúdiu, vývoji, získavaní alebo prijímaní novej zbrane, prostriedku alebo spôsobu vedenia vojny sa musí určiť, či by jej použitie za určitých alebo všetkých okolností bolo zakázané medzinárodným právom;

f) pri vývoji alebo získavaní nových zbraňových systémov založených na nových technológiách v oblasti smrtiacich autonómnych zbraňových systémov, fyzickej bezpečnosti, vhodných nefyzických záruk (vrátane kybernetickej bezpečnosti proti hackerstvu alebo spoofingu údajov), riziko získania teroristickými skupinami; a malo by sa zvážiť riziko šírenia;

g) Posúdenie rizík a opatrenia na zmiernenie by mali byť súčasťou cyklu navrhovania, vývoja, testovania a nasadzovania nových technológií v akýchkoľvek zbraňových systémoch;

h) Pri presadzovaní súladu s MHP a inými platnými medzinárodnými právnymi záväzkami by sa malo zvážiť použitie nových technológií v oblasti smrtiacich autonómnych zbraňových systémov;

(i) Pri vytváraní potenciálnych politických opatrení by nové technológie v oblasti smrtiacich autonómnych zbraňových systémov nemali byť antropomorfizované;

j) Diskusie a akékoľvek potenciálne politické opatrenia prijaté v rámci CCW by nemali brániť pokroku alebo prístupu k mierovému využívaniu inteligentných autonómnych technológií;

k) CCW ponúka vhodný rámec na riešenie problematiky nových technológií v oblasti smrtiacich autonómnych zbraňových systémov v kontexte cieľov a účelov dohovoru, ktorý sa snaží nájsť rovnováhu medzi vojenskou nevyhnutnosťou a humanitárnymi úvahami.

Tieto a ďalšie rôzne zákony vojny a zákony ozbrojeného konfliktu alebo IHL (Medzinárodné humanitárne zákony) slúžia ako životne dôležitý a vždy sľubný sprievodca pri zvažovaní toho, čo by sme sa mohli pokúsiť urobiť s príchodom autonómnych systémov, ktoré sú vybavené zbraňami, či už základným kameňom. dizajnom alebo dodatočnými metódami.

Niektorí hovoria, že by sme mali úplne zakázať tie autonómne systémy AI, ktoré sú vyzbrojiteľné. To je pravda, svet by mal dať dole nohu a dôrazne požadovať, aby autonómne systémy AI nikdy neboli zbrojené. Má byť uložený úplný zákaz. Koniec príbehu. Bodka, bodka.

Môžeme si úprimne želať, aby sa prísne a poslušne dodržiaval zákaz smrtiacich zbraňových autonómnych systémov. Problém je v tom, že v ktoromkoľvek z najúprimnejších zákazov sa nevyhnutne nájde veľa priestoru na hýbanie sa. Ako sa hovorí, pravidlá sú na to, aby sa porušovali. Môžete sa staviť, že tam, kde sú veci ľahostajné, bude riff hľadať medzery a pokúsiť sa obísť pravidlá.

Tu sú niektoré potenciálne medzery, ktoré si zaslúžia pozornosť:

  • Tvrdenia o nesmrteľnosti. Vyrobte nesmrtonosné autonómne zbraňové systémy (zdanlivo v poriadku, keďže je to mimo hranice zákazu), z ktorých sa potom môžete za pár minút stať smrteľnými (za zákazom sa dostanete až na poslednú chvíľu).
  • Len nároky na autonómny systém. Dodržiavajte zákaz tým, že nevytvoríte autonómne systémy zamerané na smrtiace, medzitým urobte taký pokrok vo vymýšľaní každodenných autonómnych systémov, ktoré (zatiaľ) nie sú vybavené zbraňami, ale ktoré môžete za málo peňazí prerobiť na zbrane.
  • Tvrdenia, že nie sú integrované ako jeden. Vyrobte si autonómne systémy, ktoré vôbec nie sú vybavené zbraňami, a keď príde čas, pribaľte zbrane, takže sa môžete pokúsiť vehementne tvrdiť, že ide o dva samostatné prvky, a preto tvrdiť, že nepatria do kategórie „všetko v jednom“. autonómny zbraňový systém alebo jeho príbuzný.
  • Tvrdí, že nie je autonómny. Vytvorte zbraňový systém, ktorý sa nezdá byť autonómnymi kapacitami. Ponechajte priestor v tomto pravdepodobne neautonómnom systéme na využitie autonómie založenej na AI. Keď je to potrebné, zapojte autonómiu a ste pripravení začať (dovtedy ste zdanlivo neporušovali zákaz).
  • ostatné

Existuje množstvo ďalších vyjadrených ťažkostí so snahou o úplný zákaz smrtiacich autonómnych zbraňových systémov. Uvediem niekoľko ďalších z nich.

Niektorí odborníci tvrdia, že zákaz nie je obzvlášť užitočný a namiesto toho by mali existovať regulačné ustanovenia. Myšlienka je taká, že tieto výmysly budú povolené, ale budú prísne kontrolované. Je stanovená litánia zákonného použitia spolu so zákonnými spôsobmi zacielenia, zákonnými typmi spôsobilostí, zákonnou proporcionalitou a podobne.

Podľa ich názoru je priamy zákaz ako strčiť hlavu do piesku a predstierať, že slon v miestnosti neexistuje. Toto tvrdenie však privádza do varu tých, ktorí sú v rozpore s argumentom, že zavedením zákazu môžete dramaticky znížiť pokušenie presadzovať tento druh systémov. Iste, niektorí sa budú chváliť zákazom, ale aspoň dúfajme, že väčšina nie. Potom môžete zamerať svoju pozornosť na chvastúnov a nemusíte trieštiť svoju pozornosť na všetkých.

Tieto debaty idú dookola.

Ďalšou často uvádzanou obavou je, že aj keď dobrí zákaz dodržia, zlí nie. Toto stavia dobro do mizernej polohy. Zlí budú mať tieto druhy zbraňových autonómnych systémov a dobrí nie. Akonáhle sa ukáže, že tí zlí ich majú, bude už neskoro, aby to dobrí dobehli. Stručne povedané, jediná múdra vec, ktorú musíte urobiť, je pripraviť sa na boj s ohňom.

Existuje aj klasický spor o odstrašovaní. Ak sa dobrí rozhodnú vytvoriť ozbrojené autonómne systémy, môže to byť použité na odstrašenie zlých od snahy dostať sa do šarvátky. Buď budú dobrí lepšie vyzbrojení, a tak odradia zlých, alebo budú dobrí pripravení, keď zlí možno odhalia, že tie systémy celý čas tajne vymýšľali.

Protikladom k týmto počítadlám je, že vytváraním autonómnych systémov so zbraňami vediete preteky v zbrojení. Druhá strana sa bude snažiť mať to isté. Aj keď technologicky nie sú schopní vytvoriť takéto systémy nanovo, budú teraz schopní ukradnúť plány tých „dobrých“, spätne analyzovať high-tech vnútornosti alebo napodobniť čokoľvek, čo považujú za osvedčené a overené. spôsob, ako dokončiť prácu.

Aha, nejaká replika, to všetko by mohlo viesť k zníženiu konfliktov zdanlivým vzájomným. Ak strana A vie, že strana B má tieto smrtiace zbrane s autonómnymi systémami a strana B vie, že strana A ich má, mohli by sedieť pevne a nevybuchnúť. Toto má tú výraznú auru vibrácií vzájomne zaručenej deštrukcie (MAD).

A tak ďalej.

Pozorný pohľad na druhý odsek

Tu sme už prebrali veľa a zatiaľ sme sa zaoberali iba prvým alebo úvodným odsekom otvoreného listu (celkom sú štyri odseky).

Je čas pozrieť sa na druhý odsek, tu to je:

  • „Ako každá nová technológia ponúkajúca nové možnosti, aj vznik pokročilých mobilných robotov ponúka možnosť zneužitia. Nedôveryhodní ľudia by ich mohli použiť na porušovanie občianskych práv alebo na ohrozovanie, ubližovanie alebo zastrašovanie iných. Jednou z oblastí, ktoré vyvolávajú osobitné obavy, je zbrojenie. Sme presvedčení, že pridávanie zbraní do robotov, ktoré sú diaľkovo alebo autonómne ovládané, široko dostupné verejnosti a schopné navigácie na predtým nedostupné miesta, kde ľudia žijú a pracujú, prináša nové riziká poškodenia a vážne etické problémy. Ozbrojené aplikácie týchto novoschopných robotov tiež poškodia dôveru verejnosti v technológiu spôsobom, ktorý poškodí obrovské výhody, ktoré prinesú spoločnosti. Z týchto dôvodov nepodporujeme zbrojenie našich univerzálnych robotov s pokročilou mobilitou. Pre tých z nás, ktorí o tejto téme hovorili v minulosti, a pre tých, ktorí sa zapojili po prvý raz, teraz pociťujeme opätovnú naliehavosť vo svetle rastúceho znepokojenia verejnosti v posledných mesiacoch spôsobeného malým počtom ľudí, ktorí viditeľne zverejnili svoje provizórne úsilie o vyzbrojenie komerčne dostupných robotov“ (podľa zverejneného online).

Po prečítaní druhého odseku dúfam, že vidíte, ako sa dostáva do popredia môj predchádzajúci rozhovor o umelej inteligencii.

Pozrime sa na niekoľko ďalších bodov.

Trochu pochybností o konkrétnom aspekte formulácie, ktorý niektorým vyvolal chúťky, je, že príbeh podľa všetkého zdôrazňuje, že „nedôveryhodní ľudia“ by mohli tieto roboty AI zneužiť. Áno, skutočne to môžu byť zlí ľudia alebo páchatelia zla, ktorí spôsobia podlé činy, ktoré „zneužijú“ roboty AI.

Zároveň, ako bolo zdôraznené na začiatku tejto diskusie, musíme tiež objasniť, že samotná AI by sa mohla pokaziť, pravdepodobne v dôsledku vložených chýb alebo chýb a iných podobných komplikácií. Vyjadrené znepokojenie spočíva v tom, že sa zdôrazňujú iba šance nedôveryhodní ľudia je, že sa zdá, že ignoruje iné nepriaznivé možnosti. Hoci väčšina spoločností a predajcov AI to nerád priznáva, existuje množstvo problémov so systémami AI, ktoré môžu znížiť bezpečnosť a spoľahlivosť autonómnych systémov. Pre moje pokrytie bezpečnosti AI a potreby prísnych a preukázateľných záruk pozri odkaz tu, Napr.

Ďalším pozoruhodným bodom, ktorý sa objavil medzi tými, ktorí preskúmali otvorený list, je zahrnuté tvrdenie, že by mohlo dôjsť k zníženiu dôvery verejnosti spojenej s robotmi AI.

Na jednej strane je to platné tvrdenie. Ak sú AI roboti zvyknutí robiť zlé ponuky, môžete sa staviť, že verejnosť bude poriadne zaparená. Keď sa verejnosť dostane do varu, môžete sa staviť, že zákonodarcovia skočia do nájazdu a budú sa snažiť uzákoniť zákony, ktoré zasiahnu roboty AI a výrobcov robotov AI. To by zase mohlo ochromiť priemysel robotiky s umelou inteligenciou, ak budú zákony komplexné, a zastaviť úsilie zahŕňajúce výhody robotiky AI. V istom zmysle by dieťa mohlo byť vyhodené s vodou z kúpeľa (starý výraz, ktorý si pravdepodobne zaslúži byť na dôchodku).

Zjavnou otázkou tiež je, či je toto tvrdenie o odvrátení zníženia dôvery verejnosti voči robotom AI trochu samoúčelným krédom, alebo je to pre dobro nás všetkých (môže byť oboje?).

Ty rozhodni.

Teraz sa dostávame k obzvlášť mäsitej časti otvoreného listu:

  • „Sľubujeme, že nebudeme vyzbrojovať naše univerzálne roboty s pokročilou mobilitou ani softvér, ktorý vyvíjame a ktorý umožňuje pokročilú robotiku, a nebudeme v tom podporovať ostatných. Keď to bude možné, starostlivo skontrolujeme zamýšľané aplikácie našich zákazníkov, aby sme sa vyhli potenciálnemu použitiu zbraní. Zaväzujeme sa tiež preskúmať vývoj technologických funkcií, ktoré by mohli zmierniť alebo znížiť tieto riziká. Aby bolo jasné, nepochybujeme o existujúcich technológiách, ktoré národy a ich vládne agentúry používajú na svoju obranu a dodržiavanie svojich zákonov“ (ako je zverejnené online).

Toto môžeme rozbaliť.

Posaďte sa a pripravte sa podľa toho.

Ste pripravení na ohnivú polarizáciu?

Pozitívom je, že niektorí hlasne oznamujú, že títo tvorcovia robotov AI by takýto sľub dali. Zdá sa, že títo výrobcovia robotov sa našťastie budú snažiť nezbrojiť svoje roboty na všeobecné použitie s pokročilou mobilitou. Okrem toho sa v otvorenom liste uvádza, že nepodporia ostatných, ktorí tak urobia.

Kritici sa pýtajú, či sa deje nejaké šikovné slovné spojenie.

Napríklad, kde začína a končí „pokročilá mobilita“? Ak výrobca robotov vymýšľa a prostý-mobilný AI robot namiesto pokročilého (čo je nedefinovaný kus technického žargónu), je vylúčený z rozsahu toho, čo bude nie byť ozbrojený? Zjavne je teda v poriadku vyzbrojovať roboty AI s jednoduchou mobilitou, pokiaľ nie sú tzv. pokročilý.

To isté platí pre frázovanie univerzálnych robotov. Ak je robot AI navrhnutý špeciálne na zbrojenie, a preto nie je, povieme a všeobecný účel robot, stáva sa to realizovateľným vylúčením z rozsahu pôsobnosti?

Môžete sa s týmito dohadmi hádať a horlivo namietať, že toto je len otvorený list a nie päťdesiatstranový právny dokument, ktorý objasňuje každý kút.

To nás privádza k zdanlivo viac makroúrovni výčitiek vyjadrených niektorými. Čo v podstate znamená „záväzok“?

Niektorí sa pýtajú, kde je hovädzie mäso?

Spoločnosť, ktorá dáva takýto prísľub, to zdanlivo robí bez skutočného podielu v hre. Ak sa najvyšší predstaviteľ akejkoľvek firmy, ktorá sa prihlási k tomuto sľubu, rozhodne sľub ďalej neplniť, čo sa stane s touto firmou? Dostanú vedúci pracovníci súhrnne konzervy? Zatvorí sa spoločnosť a hlboko sa ospravedlní za porušenie sľubu? A tak ďalej.

Pokiaľ možno vyvodiť, neexistuje žiadny konkrétny trest alebo penalizácia za porušenie sľubu.

Môžete namietať, že existuje možnosť poškodenia dobrého mena. Záložná firma môže byť na trhu zasiahnutá za to, že zložila prísľub, ktorý už nedodržiava. To samozrejme predpokladá aj to, že si ľudia budú pamätať, že zástava bola zložená. Taktiež predpokladá, že porušenie prísľubu bude nejakým spôsobom odhalené (zjavne sa zdá nepravdepodobné, že firma všetkým povie, ak tak urobí). Porušovateľ sľubu by musel byť odvolaný, no napriek tomu by sa takýto problém mohol stať obyčajným hlukom v prebiehajúcej cunami správ o tvorcoch robotiky AI.

Zvážte ďalší uhol, ktorý sa objavil.

Záložnú firmu kúpi nejaká väčšia firma. Väčšia firma sa rozhodla začať premieňať univerzálne roboty s pokročilou mobilitou na verzie s umelou inteligenciou.

Je to porušenie sľubu?

Väčšia firma môže trvať na tom, že nejde o porušenie, pretože (väčšia firma) sľub nikdy nezložila. Medzitým sa neškodní roboti s umelou inteligenciou, ktoré menšia firma zostavila a vymyslela, pričom tak urobili so zdanlivo najaltruistickými zámermi, takmer cez noc prerobia na zbrane.

Trochu to podkopáva sľub, aj keď by ste mohli povedať, že menšia firma nevedela, že sa to jedného dňa stane. Vo svojej túžbe boli úprimní. Bolo mimo ich kontroly, čo sa väčšia nákupná firma rozhodla urobiť.

Niektorí sa tiež pýtajú, či je v tom právna zodpovednosť.

Záložná firma sa o niekoľko mesiacov rozhodne, že sľub nedodrží. Došlo u nich k zmene názoru. Môže byť firma žalovaná za to, že sa vzdala sľubu, ktorý dala? Kto by žaloval? Aký by bol základ pre žalobu? Vzniká množstvo právnych problémov. Ako sa hovorí, môžete žalovať takmer kohokoľvek, ale či zvíťazíte, je úplne iná vec.

Myslite na to inak. Záväzná firma dostane príležitosť urobiť naozaj veľký obchod, aby predala celú skupinu svojich univerzálnych robotov s pokročilou mobilitou masívnej spoločnosti, ktorá je ochotná zaplatiť cez nos za získanie robotov. Je to jedna z tých nákupných ponúk za milión dolárov, ktoré sa raz za život dostanú.

Čo by mala robotická spoločnosť AI robiť?

Ak je spoločnosť zaručujúca robotiku AI verejne obchodovaná, takmer určite by sa zamerala na predaj (to isté by sa dalo povedať o súkromnej firme, aj keď nie celkom tak). Predstavte si, že záložná firma sa obáva, že by sa kupujúci mohol pokúsiť vyzbrojiť robotov, hoci povedzme, že žiadna taká diskusia na stole nie je. Len sa povráva, že by tak mohol urobiť kupujúci.

V súlade s tým ručiaca firma vkladá do svojich licencií, že roboty nemajú byť zbrojené. Kupujúci týmto jazykom zaváha a odstúpi od kúpy.

Od akého zisku sa ručiaca firma zaoberajúca sa AI robotikou práve vzdialila?

Existuje bod, v ktorom skutočný zisk prevažuje nad zahrnutím požiadavky na obmedzenie udeľovania licencií (alebo možno právne formulovanie obmedzenia tak, aby umožnilo voľný pohyb a napriek tomu sa obchod uskutočnil)? Myslím, že môžete vidieť trápenie. Tony takýchto scenárov sa dajú ľahko vykúzliť. Otázkou je, či táto zástava bude mať zuby. Ak áno, aké zuby?

Stručne povedané, ako bolo spomenuté na začiatku tejto diskusie, niektorí sú oboznámení s tým, že sa tento typ sľubu robí, zatiaľ čo iní majú slabší pohľad na to, či sľub zadrží vodu.

Ideme ďalej.

Získanie sľubu

Štvrtý a posledný odsek otvoreného listu hovorí toto:

  • „Uvedomujeme si, že náš záväzok sám osebe nestačí na úplné odstránenie týchto rizík, a preto vyzývame tvorcov politík, aby s nami spolupracovali na podpore bezpečného používania týchto robotov a zakázali ich zneužívanie. Vyzývame tiež každú organizáciu, vývojára, výskumníka a používateľa v robotickej komunite, aby sa podobným spôsobom zaviazal, že nebude stavať, nepovoľovať, podporovať ani umožňovať pripojenie zbraní k takýmto robotom. Sme presvedčení, že prínosy týchto technológií pre ľudstvo výrazne prevažujú nad rizikom ich zneužitia a tešíme sa zo svetlej budúcnosti, v ktorej budú ľudia a roboti pracovať bok po boku pri riešení niektorých svetových výziev“ (podľa zverejneného online).

Táto posledná časť otvoreného listu má niekoľko ďalších prvkov, ktoré vyvolali hnev.

Niektorí tvrdia, že odvolávanie sa na tvorcov politiky môže byť dobre alebo zle. Môžete získať tvorcov politík, ktorí sa v týchto záležitostiach nevyznajú, a potom sa budú riadiť klasickými zákonmi a nariadeniami, ktoré si privlastňujú pokrok v oblasti AI robotov. Ako už bolo spomenuté, inovácia, ktorá sa posúva vpred v oblasti robotických pokrokov AI, bude pravdepodobne narušená alebo pošliapaná.

Radšej si buďte istý, že viete, čo požadujete, hovoria kritici.

Samozrejme, protiargumentom je, že príbeh jasne uvádza, že tvorcovia politík by mali spolupracovať s firmami zaoberajúcimi sa AI robotikou, aby zistili, ako pravdepodobne rozumne vytvoriť takéto zákony a nariadenia. Protiargumentom je, že tvorcovia politík by mohli byť vnímaní ako tí, ktorí sa pozerajú na tvorcov robotiky AI, ak sa starajú o ich rozmary. Protiargumentom proti tvrdeniu je, že je prirodzene nevyhnutné spolupracovať s tými, ktorí o technológii vedia, inak môže byť výsledok potenciálne zlý. Atď.

Niektorých možno na základe hádania pálila záha, ktorá vyzýva každého, aby urobil podobné prísľuby, že pripútanie zbrane až po univerzálne roboty s pokročilou mobilitou. Kľúčovým slovom je slovo pripútanie. Ak niekto vyrába robota s umelou inteligenciou, ktorý obsahuje alebo bez problémov vkladá zbrane, zdá sa, že to obchádza znenie pripútanie niečo. Teraz to môžete vidieť, niekto vehementne argumentuje, že zbraň nie je pripevnená, je úplne neoddeliteľnou súčasťou robota AI. Prekonajte to, kričia, nespadáme do rozsahu tohto sľubu, a dokonca by inak mohli povedať, že áno.

To prináša ďalšiu sťažnosť na nedostatočnú lepivosť zástavy.

Môže firma alebo ktokoľvek, kto sa rozhodne dať tento sľub, kedykoľvek vyhlásiť za nezaviazaných, že si to želajú a z akéhokoľvek dôvodu, ktorý si želajú?

Zrejme to tak je.

Veľa sa hovorí o vytváraní sľubov a o tom, akú priľnavosť majú.

záver

Fuj, možno si poviete, tieto spoločnosti, ktoré sa snažia robiť správnu vec, dostávajú bubnovanie za to, že sa snažia robiť správnu vec.

Čo prišlo z nášho sveta?

Každý, kto dáva takýto sľub, by mal mať výhodu pochybností, možno by ste vášnivo tvrdili. Vystupujú do verejnej sféry, aby odvážne a zásadne prispeli. Ak ich za to začneme osočovať, situáciu to určite ešte zhorší. Nikto nebude chcieť zložiť takýto sľub. Firmy a iní sa o to ani nepokúsia. Skryjú sa a nebudú varovať spoločnosť pred tým, na čo sa môžu títo milovaní tancujúci roboti nebezpečne zmeniť.

Skeptici vyhlasujú, že spôsob, ako prinútiť spoločnosť, aby sa umúdrila, zahŕňa aj iné činy, ako napríklad upustenie od fantazijného predvedenia šantivých tancujúcich robotov AI. Alebo z toho aspoň urobte vyváženejší počin. Napríklad, namiesto napodobňovania milovaných psov verných domácim miláčikom, ilustrujte, ako sa tancujúce roboty môžu viac podobať divokým rozpútaným nahnevaným vlkom, ktorí dokážu ľudí bez váhania roztrhať na kusy.

To si získa viac pozornosti ako sľuby, prosia.

Sľuby môžu byť nepochybne veľkým rébusom.

Ako výrečne povedal Mahátma Gándhí: „Bez ohľadu na to, aký výslovný je sľub, ľudia budú text otáčať a prekrúcať tak, aby vyhovoval ich vlastnému účelu.

Snáď na záver povznášajúcou poznámkou Thomas Jefferson povedal o sľuboch toto: „Vzájomne si sľubujeme svoje životy, svoje bohatstvo a svoju posvätnú česť.“

Pokiaľ ide o roboty AI, ich autonómiu, zbrane a podobne, v konečnom dôsledku v tom budeme všetci spolu. Náš vzájomný záväzok musí byť aspoň taký, že tieto záležitosti budeme udržiavať v popredí, budeme sa snažiť nájsť spôsoby, ako sa s týmto pokrokom vyrovnať a nejakým spôsobom nájsť cestu k zabezpečeniu našej cti, nášho majetku a našich životov.

Môžeme sa k tomu zaviazať?

Dúfam.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- výrobcovia robotov, ktorí hovoria, že-odvrátia-ai-zbraň/