Etika AI a zákon o AI objasňujúci, čo je v skutočnosti umelá inteligencia dôveryhodná

Dôvera je všetko, tak sa hovorí.

Známy filozof Lao Tzu povedal, že kto dostatočne neverí, tomu nebude veriť. Ernest Hemingway, vážený spisovateľ, uviedol, že najlepší spôsob, ako zistiť, či môžete niekomu dôverovať, je dôverovať mu.

Medzitým sa zdá, že dôvera je vzácna a krehká. Dôvera, ktorú človek má, sa môže zrútiť ako domček z karát alebo náhle prasknúť ako prasknutý balón.

Staroveký grécky tragéd Sofokles tvrdil, že dôvera umiera, ale nedôvera kvitne. Francúzsky filozof a matematik Descartes tvrdil, že je rozumné nikdy úplne nedôverovať tým, ktorí nás čo i len raz oklamali. Výnimočný miliardársky investor Warren Buffett nabádal, že vybudovanie dôveryhodnej povesti trvá dvadsať rokov a jej zničenie trvá päť minút.

Možno vás prekvapí, že všetky tieto rôzne názory a provokatívne názory na dôveru sú kľúčové pre nástup umelej inteligencie (AI).

Áno, je tu niečo, o čom sa hovorí dôveryhodná AI ktorá si v týchto dňoch neustále získava veľkú pozornosť, vrátane ručných výkrikov z oblasti AI a tiež búrlivých výbuchov ľudí mimo sféry AI. Celková predstava znamená, či spoločnosť bude alebo nebude ochotná dôverovať takým systémom AI.

Pravdepodobne, ak spoločnosť nebude alebo nemôže dôverovať AI, je pravdepodobné, že systémy AI nebudú schopné získať trakciu. AI, ako ju v súčasnosti poznáme, bude odsunutá nabok a bude len zbierať prach. Šokujúce je, že AI mohla skončiť na smetisku, historicky odkázaná na nič iné, ako na zúfalo skúšaný, ale okázalo neúspešný high-tech experiment. Akékoľvek snahy o oživenie AI by potenciálne čelili obrovskému boju a zastavili by ho všetky druhy námietok a otvorených protestov. Zdanlivo kvôli nedostatku dôvery v AI.

Čo to bude, máme dôverovať AI alebo nemáme dôverovať AI?

V podstate budeme mať skutočne dôveryhodnú AI?

To sú dávne a nevyriešené otázky. Poďme to rozbaliť.

Etika AI a boj za dôveryhodnú AI

Mnohí v AI veria, že vývojári systémov AI môžu získať dôveru v AI tým, že vhodne navrhnú AI, ktorá je dôveryhodná. Podstatou je, že nemôžete dúfať, že získate dôveru, ak AI na začiatku nie je zdanlivo dôveryhodná. Vytvorením systémov AI spôsobom, ktorý je vnímaný ako dôveryhodný, existuje veľká šanca, že ľudia prijmú AI a osvoja si používanie AI.

Jedna pochybnosť, ktorá už naráža na túto dôveryhodnú úvahu o AI, je, že sme už mohli byť v a deficit verejnej dôvery pokiaľ ide o AI. Dalo by sa povedať, že AI, ktorú sme už videli, vykopala dieru a rozhádzala dôveru v obrovských množstvách. A tak namiesto toho, aby začínala na dostatočnej základni dôveryhodnosti, AI bude musieť prekvapivo vyliezť z deficitu a získať každú požadovanú uncu pridanej dôvery, ktorá bude potrebná na presvedčenie ľudí, že AI je v skutočnosti dôveryhodná.

Do tejto výzvy prichádza etika a právo AI.

Etika umelej inteligencie a zákon o umelej inteligencii sa snažia zistiť, čo bude potrebné na to, aby bola AI dôveryhodná. Niektorí naznačujú, že existuje vzorec alebo pevné zákony, ktoré dostanú AI do dôveryhodného neba. Iní naznačujú, že na získanie vychvaľovanej dôvery spoločnosti bude potrebná tvrdá práca a dôsledné a neúnavné dodržiavanie etiky a zákonov AI.

Súčasná záhada o dôvere v AI nie je sama o sebe ničím novým.

Ľahko sa môžete vrátiť do konca 1990. rokov a vystopovať objavenie sa vyhľadávanej túžby po „dôveryhodných počítačoch“ z tých čias. Išlo o rozsiahlu snahu technického priemyslu rozpoznať, či všetky počítače môžu byť vyrobené spôsobom, ktorý by spoločnosť považovala za dôveryhodný.

Kľúčové otázky pozostávali z:

  • Mohol by byť počítačový hardvér vyrobený tak, aby bol dôveryhodný?
  • Mohol by byť softvér vytvorený tak, aby bol dôveryhodný?
  • Mohli by sme zaviesť globálne prepojené počítače, ktoré by boli dôveryhodné?
  • A tak ďalej.

Vtedy prevládal názor, ktorý pretrváva dodnes, že dôveryhodná výpočtová technika zostáva typom svätého grálu, ktorý, žiaľ, stále nie je celkom na dosah (ako sa uvádza v článku s názvom „Dôveryhodná AI“ v Komunikácia ACM). Mohli by ste presvedčivo tvrdiť, že AI je ďalšou zložkou počítačovej dôveryhodnosti, no vďaka AI je hľadanie dôvery ešte náročnejšie a neistejšie. Umelá inteligencia sa stala potenciálnym spoilerom v boji o dosiahnutie dôveryhodnej výpočtovej techniky. Pravdepodobne najslabší článok reťaze.

Poďme sa v krátkosti pozrieť na to, prečo nás AI rozhorčila nad tým, že sme menej dôveryhodní. Okrem toho preskúmame princípy etiky AI, o ktorých sa predpokladá, že pomôžu pri podpore už tak polopodvodnej vnímanej dôvery (alebo bublajúcej nedôvery) dnešnej AI. Pre moje pokračujúce a rozsiahle pokrytie etiky AI pozri odkaz tu a odkaz tu, Len aby sme vymenovali niekoľko.

Jeden konkrétny segment alebo časť etiky umelej inteligencie, ktorá si získala veľkú pozornosť médií, pozostáva z umelej inteligencie, ktorá sa prejavuje nežiaducimi zaujatosťami a nerovnosťami. Možno ste si vedomí toho, že keď sa rozbehla najnovšia éra AI, došlo k obrovskému výbuchu nadšenia pre to, čo niektorí dnes nazývajú AI pre dobro. Bohužiaľ, v pätách tohto tryskajúceho vzrušenia sme začali byť svedkami AI pre zlé. Napríklad sa ukázalo, že rôzne systémy na rozpoznávanie tváre založené na AI obsahujú rasové a rodové predsudky, o ktorých som diskutoval na odkaz tu.

Snahy brániť sa AI pre zlé aktívne prebiehajú. Okrem hlučného právne v snahe o zvládnutie previnenia existuje aj výrazný tlak na prijatie etiky AI, aby sa napravila odpornosť AI. Myšlienka je taká, že by sme mali prijať a podporiť kľúčové etické princípy AI pre vývoj a zavádzanie AI, aby sme podkopali AI pre zlé a súčasne ohlasovať a podporovať preferované AI pre dobro.

V súvislosti s tým som zástancom pokusu použiť AI ako súčasť riešenia problémov s AI a bojovať s ohňom ohňom týmto spôsobom myslenia. Mohli by sme napríklad vložiť etické komponenty AI do systému AI, ktorý bude monitorovať, ako zvyšok AI robí veci, a tak potenciálne zachytiť v reálnom čase akékoľvek diskriminačné snahy, pozri moju diskusiu na odkaz tu. Mohli by sme mať aj samostatný systém AI, ktorý funguje ako typ monitora etiky AI. Systém AI slúži ako dozorca na sledovanie a zisťovanie, kedy sa iná AI dostane do neetickej priepasti (pozri moju analýzu takýchto schopností na odkaz tu).

O chvíľu sa s vami podelím o niekoľko základných princípov, ktoré sú základom etiky AI. Takýchto zoznamov sa tu a tam pohybuje veľa. Dalo by sa povedať, že zatiaľ neexistuje jednotný zoznam univerzálnej príťažlivosti a súbežnosti. To je tá nešťastná správa. Dobrou správou je, že aspoň existujú ľahko dostupné zoznamy etiky AI a bývajú dosť podobné. Celkovo to naznačuje, že formou rozumnej konvergencie svojho druhu nachádzame cestu k všeobecnej zhode toho, z čoho pozostáva etika umelej inteligencie.

Najprv si stručne popíšme niektoré z celkových etických zásad AI, aby sme ilustrovali, čo by malo byť životne dôležitým faktorom pre každého, kto vytvára, využíva alebo používa AI.

Napríklad, ako uvádza Vatikán v Rím vyzýva na etiku AI a ako som sa podrobne venoval odkaz tuToto je ich identifikovaných šesť základných etických princípov AI:

  • transparentnosť: V zásade musia byť systémy AI vysvetliteľné
  • začlenenie: Potreby všetkých ľudských bytostí musia byť brané do úvahy, aby z toho mohol mať úžitok každý, a aby všetkým jednotlivcom mohli byť ponúknuté najlepšie možné podmienky na sebavyjadrenie a rozvoj.
  • odpovedá: Tí, ktorí navrhujú a nasadzujú používanie AI, musia postupovať zodpovedne a transparentne
  • nestrannosť: Nevytvárajte ani nekonajte podľa zaujatosti, čím si zabezpečíte spravodlivosť a ľudskú dôstojnosť
  • Spoľahlivosť: Systémy AI musia byť schopné spoľahlivo fungovať
  • Bezpečnosť a súkromie: Systémy AI musia fungovať bezpečne a rešpektovať súkromie používateľov.

Ako uviedlo americké ministerstvo obrany (DoD) vo svojom Etické princípy používania umelej inteligencie a ako som sa podrobne venoval odkaz tuToto je ich šesť základných etických princípov AI:

  • Zodpovedný: Personál ministerstva obrany bude uplatňovať primeranú úroveň úsudku a starostlivosti, pričom zostane zodpovedný za vývoj, nasadenie a používanie schopností AI.
  • Spravodlivé: Ministerstvo podnikne premyslené kroky, aby minimalizovalo neúmyselné skreslenie schopností AI.
  • Vysledovateľné: Schopnosti umelej inteligencie ministerstva sa vyvinú a rozmiestnia tak, aby príslušní pracovníci primerane rozumeli technológiám, vývojovým procesom a prevádzkovým metódam použiteľným na schopnosti umelej inteligencie, vrátane transparentných a kontrolovateľných metodík, zdrojov údajov a návrhových postupov a dokumentácie.
  • spoľahlivosť: Schopnosti umelej inteligencie ministerstva budú mať explicitné, dobre definované využitie a bezpečnosť, zabezpečenie a efektívnosť takýchto schopností bude predmetom testovania a zabezpečenia v rámci týchto definovaných použití počas celého životného cyklu.
  • Riaditeľné: Ministerstvo navrhne a skonštruuje schopnosti AI tak, aby plnili zamýšľané funkcie, pričom majú schopnosť odhaliť a vyhnúť sa neúmyselným následkom a schopnosť odpojiť alebo deaktivovať nasadené systémy, ktoré prejavujú neúmyselné správanie.

Diskutoval som aj o rôznych kolektívnych analýzach etických princípov AI, vrátane toho, že som sa zaoberal súborom navrhnutým výskumníkmi, ktorí preskúmali a zhrnuli podstatu mnohých národných a medzinárodných etických zásad AI v článku s názvom „Globálna krajina etických zásad AI“ (zverejnená v príroda), a ktoré moje pokrytie skúma na odkaz tu, čo viedlo k tomuto kľúčovému zoznamu:

  • Priehľadnosť
  • Spravodlivosť a spravodlivosť
  • Neškodnosť
  • zodpovednosť
  • súkromia
  • dobročinnosť
  • Sloboda a autonómia
  • Verte
  • Udržateľnosť
  • dôstojnosť
  • Solidarita

Ako môžete priamo uhádnuť, pokúsiť sa určiť špecifiká, ktoré sú základom týchto princípov, môže byť mimoriadne ťažké. O to viac, snaha premeniť tieto široké princípy na niečo úplne hmatateľné a dostatočne podrobné na to, aby sa dali použiť pri vytváraní systémov AI, je tiež tvrdým orieškom. Celkovo je ľahké mávnuť rukou nad tým, čo sú to etické predpisy AI a ako by sa mali vo všeobecnosti dodržiavať, zatiaľ čo v kódovaní AI je oveľa komplikovanejšia situácia, keď musí ísť o skutočnú gumu, ktorá sa stretáva s vozovkou.

Princípy AI etiky majú využívať vývojári AI spolu s tými, ktorí riadia snahy o vývoj AI, a dokonca aj tí, ktorí v konečnom dôsledku nasadzujú a vykonávajú údržbu systémov AI. Všetky zainteresované strany počas celého životného cyklu vývoja a používania AI sa berú do úvahy v rámci dodržiavania zavedených noriem Etickej AI. Toto je dôležitý prvok, pretože zvyčajným predpokladom je, že „iba kóderi“ alebo tí, ktorí programujú AI, podliehajú etike AI. Ako už bolo spomenuté, na vymyslenie a nasadenie AI je potrebná dedina, v ktorej sa celá dedina musí vyznať a dodržiavať etické predpisy AI.

Uistime sa tiež, že sme na rovnakej stránke o povahe dnešnej AI.

Dnes neexistuje žiadna umelá inteligencia, ktorá by bola vnímavá. Toto my nemáme. Nevieme, či bude vnímajúca AI možná. Nikto nemôže vhodne predpovedať, či dosiahneme vnímajúcu AI, ani to, či sa vnímajúca AI nejakým zázrakom spontánne objaví vo forme výpočtovej kognitívnej supernovy (zvyčajne označovanej ako singularita, pozri moje pokrytie na odkaz tu).

Typ AI, na ktorý sa zameriavam, pozostáva z necitlivej AI, ktorú máme dnes. Ak by sme chceli divoko špekulovať o cítiaci AI, táto diskusia by sa mohla uberať radikálne iným smerom. Vnímajúca AI by mala mať ľudské kvality. Mali by ste zvážiť, že vnímajúca AI je kognitívnym ekvivalentom človeka. Navyše, keďže niektorí špekulujú, že by sme mohli mať superinteligentnú AI, je možné, že takáto AI by mohla byť inteligentnejšia ako ľudia (pre môj prieskum superinteligentnej AI ako možnosti pozri pokrytie tu).

Nechajme veci viac pri zemi a zvážme dnešnú výpočtovú necitlivú AI.

Uvedomte si, že dnešná AI nie je schopná „myslieť“ akýmkoľvek spôsobom na rovnakej úrovni ako ľudské myslenie. Keď komunikujete s Alexou alebo Siri, konverzačné schopnosti sa môžu zdať podobné ľudským schopnostiam, ale realita je taká, že sú výpočtové a chýba im ľudské poznanie. Najnovšia éra AI vo veľkej miere využíva strojové učenie (ML) a hlboké učenie (DL), ktoré využívajú porovnávanie výpočtových vzorov. To viedlo k systémom AI, ktoré vyzerajú ako ľudia. Medzitým dnes neexistuje žiadna umelá inteligencia, ktorá by mala zdanie zdravého rozumu, ani žiadny z kognitívnych zázrakov robustného ľudského myslenia.

ML/DL je forma porovnávania výpočtových vzorov. Zvyčajný prístup je taký, že zhromažďujete údaje o úlohe rozhodovania. Dáta vložíte do počítačových modelov ML/DL. Tieto modely sa snažia nájsť matematické vzorce. Po nájdení takýchto vzorov, ak sa nájdu, systém AI potom použije tieto vzory pri stretnutí s novými údajmi. Po predložení nových údajov sa na vyvodenie aktuálneho rozhodnutia použijú vzory založené na „starých“ alebo historických údajoch.

Myslím, že viete hádať, kam to smeruje. Ak ľudia, ktorí sa rozhodovali podľa vzoru, začlenili do seba nepriaznivé predsudky, je pravdepodobné, že údaje to odrážajú jemným, ale významným spôsobom. Zhoda výpočtových vzorov Machine Learning alebo Deep Learning sa jednoducho pokúsi zodpovedajúcim spôsobom matematicky napodobniť údaje. Neexistuje žiadne zdanie zdravého rozumu alebo iných vnímavých aspektov modelovania vytvoreného AI ako takého.

Okrem toho si vývojári AI nemusia uvedomiť, čo sa deje. Tajomná matematika v ML/DL môže sťažiť odhalenie teraz skrytých predsudkov. Oprávnene by ste dúfali a očakávali, že vývojári AI budú testovať potenciálne skryté predsudky, hoci je to zložitejšie, ako by sa mohlo zdať. Existuje solídna šanca, že aj pri relatívne rozsiahlom testovaní budú v modeloch zhody vzorov ML/DL stále zakomponované odchýlky.

Do istej miery by ste mohli použiť známe alebo neslávne známe príslovie o odpadkoch do odpadu. Ide o to, že je to skôr podobné zaujatostiam – in, ktoré sa zákerne naplnia, keď sa predsudky ponoria do AI. Algoritmus rozhodovania (ADM) AI je axiomaticky zaťažený nerovnosťami.

Nie dobré.

Spojme to s otázkou o dôveryhodnej AI

Určite by sme neboli ochotní dôverovať AI, ktorá predvádza nepriaznivé predsudky a diskriminačné akcie. V takom prípade by sme sa domnievali, že takáto AI rozhodne nie je dôveryhodná, a preto by sme sa priklonili k aktívnej nedôvere voči AI. Bez toho, aby sme to prehnali s antropomorfným porovnaním (o chvíľke poviem viac o antropomorfizácii AI), človek, ktorý by vykazoval nežiaduce zaujatosti, by bol tiež hodnotený ako nedôveryhodný.

Kopanie do dôvery a dôveryhodnosti

Možno by sme sa mali pozrieť na to, čo máme na mysli, keď tvrdíme, že niekomu alebo niečomu veríme alebo neveríme. Najprv zvážte niekoľko každodenných slovníkových definícií dôvery.

Príklady toho, čo dôvera v definícii znamená, sú:

  • Zaručené spoliehanie sa na charakter, schopnosti, silu alebo pravdu niekoho alebo niečoho (Merriam-Webster online slovník).
  • Spoliehanie sa na integritu, silu, schopnosti, istotu atď. osoby alebo veci (Dictionary.com)
  • Pevná viera v spoľahlivosť, pravdu, schopnosti alebo silu niekoho alebo niečoho (online slovník oxfordských jazykov).

Chcel by som zdôrazniť, že všetky tieto definície odkazujú na „niekoho“ a podobne odkazujú na „niečo“ ako potenciálne dôveryhodné. Je to pozoruhodné, pretože niektorí môžu trvať na tom, že dôverujeme iba ľuďom a že akt dôvery je vyhradený výlučne pre ľudstvo ako náš cieľ dôveryhodnosti. Nie tak. Na svoj kuchynský hriankovač sa môžete spoľahnúť. Ak sa zdá, že spoľahlivo pripravuje váš hriankovač a bežne to robí, môžete mať istotu, že hriankovač je skutočne dôveryhodný.

V rovnakom smere myslenia môže byť aj AI predmetom nášho pohľadu dôvery. Je pravdepodobné, že dôvera spojená s AI bude oveľa komplikovanejšia ako obyčajný hriankovač. Hriankovač zvyčajne dokáže vykonať iba niekoľko akcií. Systém AI bude pravdepodobne oveľa zložitejší a zdá sa, že funguje menej transparentne. Naša schopnosť posudzovať a zisťovať dôveryhodnosť AI bude určite oveľa ťažšia a prinesie odlišné výzvy.

Okrem toho, že je typický systém AI zložitejší, hovorí sa, že nie je deterministický a potenciálne sa sám reguluje alebo prispôsobuje. Tento pojem môžeme stručne preskúmať.

Deterministický stroj má tendenciu robiť tie isté veci znova a znova, predvídateľne a so životaschopne rozpoznateľným vzorom toho, ako funguje. Dalo by sa povedať, že bežný hriankovač opeká približne rovnakým spôsobom a má ovládacie prvky opekania, ktoré moderujú opekanie, pričom všetky tieto hriankovače sú vo všeobecnosti predvídateľné osobou používajúcou hriankovač. Na rozdiel od toho sú zložité systémy AI často navrhnuté tak, aby boli nedeterministické, čo znamená, že môžu robiť úplne iné veci, než by ste inak očakávali. To by sa mohlo čiastočne ešte zosilniť, ak by sa AI napísala tak, aby sa sama prispôsobila, čo je aspekt, ktorý môže výhodne umožniť zlepšenie AI v prípade ML/DL, hoci môže tiež znepokojivo spôsobiť, že AI zakolísa alebo sa dostane do rebríčka. zla AI. Možno ste nevedeli, čo vás zasiahlo, takpovediac, keďže vás akcie AI úplne zaskočili.

Čo by sme mohli urobiť, aby sme sa pokúsili priblížiť AI k dôveryhodnosti?

Jeden prístup pozostáva zo snahy zabezpečiť, aby tí, ktorí budujú a používajú AI, dodržiavali súbor etických pravidiel AI. Ako spomenuli títo výskumníci AI: „Dôvera je postoj, že agent sa bude správať podľa očakávania a možno sa naň spoľahnúť, že dosiahne svoj cieľ. Dôvera sa rozpadne po chybe alebo nedorozumení medzi agentom a dôverčivým jednotlivcom. Psychologický stav dôvery v AI je vznikajúcou vlastnosťou komplexného systému, ktorý zvyčajne zahŕňa mnoho cyklov návrhu, školenia, nasadenia, merania výkonu, regulácie, prepracovania a preškolenia“ (uvedené v Komunikácia ACM, „Dôvera, regulácia a umelá inteligencia človeka v slučke v rámci európskeho regiónu“ od Stuarta Middletona, Emmanuela Letouzeho, Aliho Hossainiho a Adriane Chapmanovej, apríl 2022).

Podstatou je, že ak dokážeme prinútiť vývojárov AI, aby dodržiavali etickú AI, dúfajme, že nakoniec vytvoria dôveryhodnú AI. To všetko je dobré a dobré, ale zdá sa to trochu nepraktické v reálnom svete, hoci je to absolútne cesta, ktorú stojí za to pokračovať.

Tu je to, čo mám na mysli.

Predpokladajme, že vývojári AI vynaložia usilovné úsilie pri vytváraní systému AI na nejaký účel, ktorý budeme vo všeobecnosti nazývať X. Starostlivo sa ubezpečujú, že AI dodržiava pravidlá transparentnosti AI. Dôrazne zabezpečujú, že súkromie je vhodne zabudované do AI. Takmer pre všetky bežné princípy etiky AI tvorcovia AI vyčerpávajúco zaisťujú, že AI spĺňa daný predpis.

Mali by ste teraz dôverovať AI?

Dovoľte mi, aby som vám pomohol preniknúť do vašich myšlienok o tejto otvorenej otázke.

Ukázalo sa, že kybernetickým podvodníkom sa podarilo infiltrovať AI a tajne prinútiť AI, aby vykonala X, a zároveň nakŕmila kybernetických hackerov všetkými údajmi, ktoré AI zhromažďuje. Títo zločinci tým zákerne porušujú zásady ochrany osobných údajov. Blažene si neuvedomujete, že sa to deje pod kapotou AI.

S touto pridanou informáciou vám položím tú istú otázku znova.

Veríš tej AI?

Dovolím si tvrdiť, že väčšina ľudí by hneď vyhlásila, že určite áno nie dôveruj tejto konkrétnej AI. Možno tomu verili skôr. Teraz sa rozhodli, že už nebudú považovať AI za dôveryhodnú.

Niekoľko kľúčových poznatkov založených na tomto jednoduchom príklade stojí za zamyslenie:

  • Dynamika dôvery. Ani tie najlepšie úmysly pokryť všetky základy zabezpečenia integrácie etiky umelej inteligencie do systému umelej inteligencie nie sú zárukou toho, čím sa umelá inteligencia môže stať alebo čím sa stane. Po uvedení AI do používania môžu outsideri potenciálne podkopať etické prírastky AI.
  • Podkopávanie dôvery zvnútra. Akt podkopnutia dôveryhodnosti nemusí byť nutne outsider. Zasvätenec, ktorý vykonáva pravidelnú údržbu systému AI, môže pomýliť a oslabiť AI tak, aby bola menej dôveryhodná. Tento vývojár AI môže mať potuchy o tom, čo spôsobil.
  • Neúmyselné kompromisy dôvery. Samoregulačná alebo samoregulačná AI sa môže v určitom bode prispôsobiť a dostať sa do nedôveryhodného územia. Možno sa AI pokúša posilniť transparentnosť AI, a napriek tomu súčasne a nevhodne ohrozuje aspekty ochrany osobných údajov.
  • Rozptyl dôvery. Snaha dosiahnuť všetky zásady etiky AI na rovnakom čo najväčšom stupni dôveryhodnosti zvyčajne nie je ľahko realizovateľná, pretože často ide o krížové účely alebo iné potenciálne konflikty. Veriť, že všetky etické predpisy umelej inteligencie sú zasnene zosúladené a všetky dosiahnuteľné do istej maximálnej miery, je skôr idealizovaná perspektíva.
  • Dosiahnutie dôvery môže byť nákladné. Náklady na pokus o dosiahnutie špičkového zdania dôveryhodnej AI prostredníctvom rôznych rozsiahlych a vyčerpávajúcich krokov a dodržiavania litánie zásad etiky AI budú relatívne vysoké. Môžete ľahko tvrdiť, že náklady by boli príliš vysoké, pokiaľ ide o používanie niektorých systémov AI, ktoré by inak mali pre spoločnosť dôležitú hodnotu, aj keď umelá inteligencia bola, povedzme, menej ako ideálna z túžby po dôveryhodnosti.
  • A tak ďalej.

Neprekladajte si predchádzajúce poznámky tak, že by sme mali nejako odvrátiť snahu o dôkladné vybudovanie a implementáciu dôveryhodnej AI. Zrazu by ste vyliali dieťa spolu s vodou vo vani. Správna interpretácia je taká, že musíme robiť tieto aktivity založené na dôvere, aby sme AI dostali do dôveryhodného hľadiska, a to samo osebe nie je liek na všetko ani strieborná guľka.

Viacbodové cesty k dôveryhodnej AI

Existujú dôležité ďalšie mnohostranné spôsoby, ako sa usilovať o dôveryhodnú AI.

Napríklad, ako som už uviedol vo svojich stĺpcoch, cieľom veľkého množstva novovznikajúcich zákonov a nariadení týkajúcich sa AI je priviesť tvorcov AI k vytvoreniu dôveryhodnej AI, pozri odkaz tu a odkaz tu.

Tieto zákonné zábrany sú kľúčové ako zastrešujúci prostriedok na zabezpečenie toho, aby tí, ktorí navrhli AI, niesli plnú zodpovednosť za svoju AI. Bez takýchto potenciálnych právnych opravných prostriedkov a zákonných sankcií tí, ktorí sa vrhnú na trh s umelou inteligenciou, v tom budú pravdepodobne pokračovať s malým, ak vôbec nejakým vážnym ohľadom na dosiahnutie dôveryhodnej AI. Predovšetkým by som mohol dodať, že ak sú tieto zákony a predpisy zle navrhnuté alebo neadekvátne implementované, mohli by, žiaľ, podkopať snahu o dôveryhodnú AI, možno ironicky a čudne podporovať nedôveryhodnú AI pred dôveryhodnou AI (ďalšie vysvetlenie nájdete v diskusiách v mojom stĺpci).

Bol som tiež oddaným zástancom toho, o čom som horlivo hovoril Roboty AI strážnych anjelov (pozri moje pokrytie na odkaz tu). Toto je nadchádzajúca metóda alebo prístup boja proti ohňu ohňom, konkrétne pomocou AI, ktorá nám pomáha pri riešení iných AI, ktoré môžu alebo nemusia byť dôveryhodné.

Po prvé, nejaký kontext na pozadí bude užitočný.

Predpokladajme, že sa rozhodnete spoľahnúť na systém AI a nie ste si istí jeho dôveryhodnosťou. Kľúčovým problémom môže byť, že ste sami vo svojich pokusoch zistiť, či sa má AI dôverovať alebo nie. AI je potenciálne výpočtovo rýchlejšia ako vy a môže vás využiť. Potrebujete niekoho alebo niečo na vašej strane, aby vám pomohol.

Jedna perspektíva je, že vždy by mal existovať človek v slučke, ktorý vám bude pomáhať pri používaní systému AI. Toto je však problematické riešenie. Ak AI funguje v reálnom čase, o čom budeme diskutovať v momente, keď príde na príchod samoriadiacich áut založených na AI, prítomnosť človeka v slučke nemusí stačiť. Umelá inteligencia by mohla konať v reálnom čase a v čase, keď do obrazu vstúpi určený človek v slučke, aby zistil, či AI funguje správne, už mohlo dôjsť ku katastrofálnemu výsledku.

Okrem toho to prináša ďalší faktor o dôvere. Úroveň dôveryhodnosti zvyčajne prideľujeme na základe kontextu alebo okolností, ktorým čelíme. Môžete plne dôverovať svojmu batoľaťu, synovi alebo dcére, že vám budú verní, ale ak ste na turistike a rozhodnete sa spoľahnúť, že vám batoľa povie, či je bezpečné stúpiť na okraj útesu, myslím, že by ste boli múdri. zvážiť, či batoľa môže poskytnúť takúto radu na život alebo na smrť. Dieťa to môže robiť vážne a úprimne, no napriek tomu nie je schopné primerane poradiť.

Rovnaký pojem sa spája s dôverou, pokiaľ ide o AI. Systém AI, ktorý používate na hranie dámy alebo šachu, pravdepodobne nie je zapojený do žiadnych úvah o živote alebo smrti. Môžete byť pokojnejší so svojím zverením dôvery. Samojazdiace auto založené na AI, ktoré sa rúti po diaľnici vysokou rýchlosťou, si vyžaduje oveľa namáhavejšiu úroveň dôvery. Najmenší zásah AI riadiaceho systému môže viesť priamo k vašej smrti a smrti ostatných.

Vo zverejnenom rozhovore Beeny Ammanath, výkonnej riaditeľky Global Deloitte AI Institute a autorky knihy Spoľahlivá AI, podobný dôraz na zváženie kontextových aspektov toho, kde hrá dôveryhodnosť AI: „Ak vytvárate riešenie AI, ktoré robí diagnostiku pacienta, spravodlivosť a zaujatosť sú mimoriadne dôležité. Ale ak vytvárate algoritmus, ktorý predpovedá poruchu prúdového motora, spravodlivosť a zaujatosť nie sú také dôležité. Dôveryhodná AI je skutočne štruktúra, ktorá vám umožní začať premýšľať o rozmeroch dôvery vo vašej organizácii“ (VentureBeat, 22. marca 2022).

Pri diskusii o dôveryhodnej AI môžete túto tému vykladať mnohými spôsobmi.

Napríklad, dôveryhodná AI je niečo, čo všetci považujeme za žiaduci a ambiciózny cieľ, konkrétne, že by sme mali túžiť po vymýšľaní a propagácii dôveryhodnej AI. Existuje ďalšie použitie sloganu. Trochu alternatívne využitie je to dôveryhodná AI je stav alebo meranie, takže niekto môže tvrdiť, že vytvoril systém AI, ktorý je inštanciou dôveryhodnej AI. Môžete použiť aj frázu dôveryhodná AI navrhnúť metódu alebo prístup, ktorý možno použiť na dosiahnutie dôveryhodnosti AI. Atď.

V súvislosti s tým verím, že si uvedomujete, že nie všetky AI sú rovnaké a že musíme dbať na to, aby sme nerobili paušálne vyhlásenia o celej AI. Konkrétny systém AI sa pravdepodobne výrazne líši od iného systému AI. Jeden z týchto systémov AI môže byť vysoko dôveryhodný, zatiaľ čo druhý môže byť len okrajovo dôveryhodný. Buďte opatrní pri predpoklade, že AI je monolit, ktorý je buď úplne dôveryhodný, alebo úplne nedôveryhodný.

Jednoducho to tak nie je.

Ďalej by som rád stručne popísal niektoré z mojich prebiehajúcich výskumov o dôveryhodnej AI, ktoré by vás mohli zaujímať, a zahŕňal vznikajúcu úlohu Roboty AI strážnych anjelov.

Ako to chodí?

Boli by ste vyzbrojení systémom AI (robot AI strážnych anjelov), ktorý je navrhnutý na meranie dôveryhodnosti iného systému AI. U robota AI strážneho anjela je prvoradé zameranie na vašu bezpečnosť. Myslite na to, akoby ste mali prostriedky na monitorovanie AI, na ktoré sa spoliehate, tým, že máte vo vrecku iný systém AI, ktorý možno beží na vašom smartfóne alebo iných podobných zariadeniach. Váš povestný strážca umelej inteligencie môže počítať na základe toho, čo robí aj umelá inteligencia, na ktorú sa spoliehate, pracuje vysokou rýchlosťou a vypočítava aktuálnu situáciu v reálnom čase, oveľa rýchlejšie, než by to dokázal človek v slučke.

Na prvý pohľad by ste si mohli myslieť, že AI, na ktorú sa už spoliehate, by mala nejakú mať interný AI zábradlia, ktoré robia to isté ako tento samostatne počítajúci robot AI strážneho anjela. Áno, to by bolo určite žiaduce. Jedna pochybnosť spočíva v tom, že zábradlia AI zabudované do systému AI môžu byť integrálne a predpojatým spôsobom zarovnané s AI ako takou, takže predpokladaná zábradlia AI už nie je schopná v istom zmysle nezávisle overiť alebo overiť AI.

Kontrastná myšlienka je, že váš robot strážneho anjela AI je nezávislý mechanizmus umelej inteligencie alebo tretej strany, ktorý sa líši od AI, na ktorú sa spoliehate. Nachádza sa mimo inej AI, zostáva oddaný vám a nie je oddaný monitorovanej alebo hodnotenej AI.

Priamy spôsob uvažovania o tom možno vyjadriť pomocou nasledujúcich zjednodušených výrokov podobných rovnici. Mohli by sme povedať, že „P“ chce potenciálne dôverovať „R“ pri vykonaní konkrétnej úlohy „X“:

Toto by bolo nasledovné, ak sú zapojení iba ľudia:

  • Osoba P dôveruje osobe R, že vykoná úlohu X.

Keď sa rozhodneme spoliehať sa na AI, vyhlásenie sa zmení na toto:

  • Osoba P dôveruje AI inštancii-R, že vykoná úlohu X.

Robota AI strážneho anjela môžeme pridať takto:

  • Osoba P dôveruje AI inštancii-R, aby vykonala úlohu X ako monitorovanú robotom inštancie-Z AI strážneho anjela

Robot strážneho anjela AI neúnavne a neúnavne hodnotí AI, na ktorú sa spoliehate. Váš praktický opatrovník AI vás preto môže upozorniť, že dôvera tejto inej AI je neopodstatnená. Alebo môže strážca AI elektronicky interagovať s inou AI, aby sa pokúsil zabezpečiť, aby akákoľvek odchýlka od dôveryhodnosti bola rýchlo opravená atď. (pozri moje pokrytie o takýchto podrobnostiach na odkaz tu).

Metafora nádrže Trusty Trust

Keďže diskutujeme o rôznych úrovniach dôvery, možno by ste našli užitočnú metaforu o dôveryhodnosti, keď dôveru chápete ako typ zásobníka.

Máte určitú mieru dôvery voči konkrétnej osobe alebo veci za určitých okolností a v určitom okamihu. Úroveň dôvery bude stúpať alebo klesať v závislosti od toho, čo sa stane v súvislosti s konkrétnou osobou alebo vecou. Dôvera môže byť na nulovej úrovni, keď k danej osobe alebo veci vôbec nedôverujete. Dôvera môže byť negatívna, keď sa odvážite nedôverovať danej osobe alebo veci.

V prípade systémov AI bude vaša rezervoár dôvery pre konkrétnu AI, na ktorú sa za určitých okolností spoliehate, stúpať alebo klesať v závislosti od vášho hodnotenia dôveryhodnosti AI. Niekedy si môžete byť vedomí tejto rôznej úrovne dôvery v AI, zatiaľ čo v iných prípadoch si môžete byť vedomí menej a viac tým, že budete tušiť, že dôveryhodnosť budete posudzovať.

Spôsoby, o ktorých sme tu diskutovali o prostriedkoch na zvýšenie úrovne dôvery pre AI, zahŕňajú:

  • Dodržiavanie etiky AI. Ak bola umelá inteligencia, na ktorú sa spoliehate, navrhnutá tak, že ste sa snažili dodržiavať správne pravidlá etiky umelej inteligencie, pravdepodobne by ste toto pochopenie využili na zvýšenie úrovne svojho rezervoára dôvery pre konkrétny systém umelej inteligencie. Ako vedľajšiu poznámku je tiež možné, že by ste mohli zovšeobecniť aj iné systémy AI, pokiaľ ide o ich dôveryhodnosť, aj keď to môže byť niekedy zavádzajúca forma toho, čo nazývam Šírenie aury dôvery AI (Buďte pri tom opatrní!).
  • Použite Human-In-The-Loop. Ak má AI funkciu človeka v slučke, môžete pozitívne prispieť k vašej vnímanej dôvere v AI.
  • Stanovte zákony a predpisy. Ak existujú zákony a predpisy súvisiace s týmto konkrétnym typom AI, môžete tiež zvýšiť úroveň svojej dôvery.
  • Využite robota AI Guardian Angel. Ak máte pripraveného robota strážneho anjela AI, tiež to zvýši vašu úroveň dôvery.

Ako už bolo spomenuté, dôvera môže byť dosť krehká a v okamihu sa rozpadne (tj rezervoár dôvery rýchlo a náhle vypustí všetku vybudovanú dôveru).

Predstavte si, že sa nachádzate v samoriadiacom aute založenom na AI a umelá inteligencia zrazu urobí radikálnu zákrutu doprava, čo spôsobí škrípanie kolies a takmer prinúti autonómne vozidlo k hrozivému prevráteniu. Čo by sa stalo s úrovňou vašej dôvery? Zdalo by sa, že aj keby ste predtým držali AI na zvýšenej úrovni dôvery, dramaticky a náhle by ste znížili svoju úroveň dôvery, rozumne áno.

Stavím sa, že v tomto bode tejto závažnej diskusie túžite po ďalších ilustratívnych príkladoch, ktoré by mohli ukázať povahu a rozsah dôveryhodnej AI. Existuje špeciálny a určite populárny súbor príkladov, ktoré sú môjmu srdcu blízke. Viete, ako odborník na AI vrátane etických a právnych dôsledkov ma často žiadajú, aby som identifikoval realistické príklady, ktoré predstavujú dilemy etiky AI, aby bolo možné ľahšie pochopiť trochu teoretickú povahu tejto témy. Jednou z najviac evokujúcich oblastí, ktorá názorne prezentuje tento etický problém umelej inteligencie, je príchod skutočne samoriadiacich áut založených na AI. Bude to slúžiť ako praktický príklad použitia alebo príklad na rozsiahlu diskusiu na túto tému.

Tu je potom pozoruhodná otázka, ktorá stojí za zamyslenie: Osvetlí príchod skutočne samoriadiacich áut založených na AI niečo o úsilí o dôveryhodnú AI, a ak áno, čo to ukazuje?

Dovoľte mi chvíľu rozbaliť otázku.

Po prvé, všimnite si, že v skutočne samoriadiacom aute nie je žiadny ľudský vodič. Majte na pamäti, že skutočne samoriadiace autá sú poháňané systémom AI. Nie je potrebný ľudský vodič za volantom, ani neexistuje ustanovenie, aby vozidlo riadil človek. Pre moje rozsiahle a neustále pokrytie autonómnych vozidiel (AV) a najmä autonómnych áut viď odkaz tu.

Rád by som ďalej objasnil, čo sa myslí, keď hovorím o skutočne samoriadiacich autách.

Porozumenie úrovniam samoriadiacich automobilov

Pre vysvetlenie, skutočne samoriadiace autá sú tie, kde AI riadi auto úplne sama a pri riadení nie je žiadna asistencia človeka.

Tieto vozidlá bez vodiča sa považujú za úroveň 4 a úroveň 5 (pozri moje vysvetlenie na tento odkaz tu), zatiaľ čo auto, ktoré vyžaduje, aby sa ľudský vodič podieľal na riadení, sa zvyčajne považuje za úroveň 2 alebo úroveň 3. Autá, ktoré sa podieľajú na úlohe riadenia, sú opísané ako poloautonómne a zvyčajne obsahujú rôzne automatizované doplnky, ktoré sa označujú ako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 ešte nie je skutočné samoriadiace auto a ešte ani nevieme, či to bude možné dosiahnuť, ani ako dlho bude trvať, kým sa tam dostaneme.

Medzitým sa úsilie úrovne 4 postupne pokúša získať určitú trakciu podstupovaním veľmi úzkych a selektívnych testov na verejných cestách, hoci existuje polemika o tom, či by toto testovanie malo byť povolené ako také (v experimente sme všetci pokusnými králikmi na život a na smrť). ktoré sa odohrávajú na našich diaľniciach a vedľajších cestách, niektorí tvrdia, pozri moje spravodajstvo na tento odkaz tu).

Keďže poloautonómne automobily si vyžadujú vodiča, prijatie týchto typov automobilov sa nebude výrazne líšiť od riadenia konvenčných vozidiel, takže o tejto téme nie je samo o sebe veľa nových (ako vidíte, uvidíte) za okamih sa spravidla použijú nasledujúce body).

V prípade autonómnych automobilov je dôležité, aby verejnosť musela byť upozornená na rušivý aspekt, ktorý sa objavuje v poslednej dobe, a to napriek tomu, že napriek tým vodičom, ktorí neustále vysielajú svoje videá, ktoré zaspávajú za volantom automobilu úrovne 2 alebo 3 , musíme sa vyhnúť tomu, aby sme boli uvedení do omylu v presvedčenie, že vodič môže odvádzať svoju pozornosť od úlohy pri riadení čiastočne autonómneho vozidla.

Ste zodpovednou stranou za jazdné vlastnosti vozidla bez ohľadu na to, do akej miery by sa automatizácia mohla hodiť na úroveň 2 alebo úroveň 3.

Samoriadiace autá a dôveryhodná AI

Pri vozidlách s vlastným riadením na úrovni 4 a 5 sa do úlohy vedenia vozidla nebude podieľať ľudský vodič.

Všetci cestujúci budú cestujúcimi.

AI robí jazdu.

Jedným z aspektov, o ktorých je potrebné okamžite diskutovať, je skutočnosť, že AI zapojená do dnešných systémov riadenia AI nie je vnímavá. Inými slovami, AI je celkom kolektív počítačového programovania a algoritmov a je nepochybne neschopný uvažovať rovnakým spôsobom ako ľudia.

Prečo je tento zvýšený dôraz na to, aby AI nebola vnímavá?

Pretože by som chcel zdôrazniť, že keď diskutujem o úlohe jazdného systému AI, nepripisujem AI ľudské vlastnosti. Uvedomte si, že v dnešnej dobe pretrváva nebezpečná tendencia k antropomorfizácii AI. Ľudia v podstate priraďujú dnešnému UI sentiment podobný človeku, a to aj napriek nepopierateľnému a nespochybniteľnému faktu, že zatiaľ taký AI neexistuje.

S týmto objasnením si môžete predstaviť, že systém riadenia umelej inteligencie nebude natívne nejako „vedieť“ o aspektoch riadenia. Vedenie vozidla a všetko, čo k tomu patrí, bude potrebné programovať ako súčasť hardvéru a softvéru samostatne riadeného automobilu.

Poďme sa ponoriť do nespočetného množstva aspektov, ktoré sa budú hrať na túto tému.

Po prvé, je dôležité si uvedomiť, že nie všetky autá s umelou inteligenciou sú rovnaké. Každá automobilka a technologická firma s vlastným pohonom pristupuje k navrhovaniu samoriadiacich áut. Preto je ťažké urobiť rozsiahle vyhlásenia o tom, čo AI riadiace systémy urobia alebo neurobia.

Okrem toho, kedykoľvek sa uvádza, že riadiaci systém AI nerobí konkrétne veci, neskôr to môžu predbehnúť vývojári, ktorí počítač v skutočnosti naprogramujú tak, aby to urobil. Krok za krokom sa systémy riadenia AI postupne vylepšujú a rozširujú. Existujúce obmedzenie dnes už nemusí existovať v budúcej iterácii alebo verzii systému.

Verím, že poskytne dostatočnú litániu výhrad, ktoré sú základom toho, o čom sa chystám hovoriť.

Teraz sme pripravení urobiť hlboký ponor do samoriadiacich áut a dôveryhodnej AI.

Dôvera je všetko, najmä v prípade samoriadiacich áut založených na AI.

Zdá sa, že spoločnosť ostražito sleduje vznik samoriadiacich áut. Na jednej strane je tu veľká nádej, že príchod skutočných samoriadiacich áut preukázateľne zníži počet každoročných úmrtí súvisiacich s automobilmi. Len v Spojených štátoch je ročne okolo 40,000 2.5 úmrtí a približne XNUMX milióna zranení v dôsledku autonehôd, pozrite si moju zbierku štatistík na odkaz tu. Ľudia pijú a šoférujú. Ľudia šoférujú, keď sú roztržití. Zdá sa, že úloha riadenia auta spočíva v schopnosti opakovane a neomylne sa sústrediť na riadenie a vyhýbať sa nehodám. Ako takí by sme mohli zasnene dúfať, že jazdné systémy AI budú viesť samoriadiace autá opakovane a neomylne. Samoriadiace autá môžete chápať ako dvojicu, ktorá pozostáva zo zníženia počtu úmrtí a zranení pri autonehodách spolu s možným sprístupnením mobility na oveľa širšom a dostupnom základe.

Medzitým sa však vynárajú obavy zo spoločenského vnímania, či budú autá s vlastným riadením dostatočne bezpečné na to, aby boli na našich verejných cestách.

Ak sa čo i len jedno samoriadiace auto dostane do nehody alebo kolízie, ktorá vedie k jednej smrti alebo ťažkému zraneniu, môžete pravdepodobne očakávať, že dnešná trochu vybudovaná dôvera voči autám bez vodiča založených na AI prudko klesne. Videli sme, ako sa to stalo, keď došlo v Arizone k teraz neslávne známemu incidentu, ktorý zahŕňal tak trochu (nie naozaj) samoriadiace auto, ktoré narazilo do chodca a zabilo ho (pozrite si moje spravodajstvo na tento odkaz tu).

Niektorí odborníci poukazujú na to, že je nespravodlivé a nevhodné zakladať dôveru v samoriadiace autá s umelou inteligenciou na tom, že iba jedna takáto ďalšia smrteľná nehoda alebo kolízia by mohla podkopať už aj tak relatívne beznárazové verejné pokusy. Okrem toho, na ďalšom nespravodlivom základe, je pravdepodobné, že bez ohľadu na to, ktorá konkrétna značka alebo model samoriadiaceho auta s umelou inteligenciou sa pravdepodobne zapletie do žalostného incidentu, spoločnosť by nepochybne obvinila všetky značky samoriadiacich áut.

Celé samoriadiace autá by mohli byť súhrnne pošpinené a priemysel ako celok by mohol utrpieť obrovský odpor vedúci k možnému odstaveniu všetkých verejných cestných skúšok.

Príspevok k takémuto spätnému chodu sa nachádza v nezmyselných proklamáciách otvorených zástancov samoriadiacich áut, že všetky autá bez vodiča budú nehavarovateľné. Táto myšlienka byť nezničiteľná je nielen vyslovene nesprávna (pozri odkaz tu), zákerne nastavuje samoriadiaci automobilový priemysel pre úplne neštandardné očakávania. Tieto bizarné a nedosiahnuteľné vyhlásenia, že kvôli samoriadiacim autám nebude nulová úmrtnosť, podporujú mylnú predstavu, že akékoľvek autonehody bez vodiča sú neklamným znakom toho, že celá súprava a kaboodle sú nanič.

Je tu výrazný smútok, keď si uvedomíme, že pokrok smerom k samoriadiacim autám a postupné hromadenie spoločenskej dôvery by sa dalo v okamihu zmariť. Bude to skvelá ukážka krehkosti dôvery.

záver

Mnoho výrobcov automobilov a technologických firiem s vlastným riadením vo všeobecnosti dodržiava zásady etiky AI, pričom sa snažia vytvoriť a vytvoriť dôveryhodnú AI z hľadiska bezpečných a spoľahlivých samojazdiacich áut založených na AI. Uvedomte si prosím, že niektoré z týchto firiem sú silnejšie a viac oddané etickým zásadám AI ako iné. Príležitostne sa vyskytujú aj okrajové alebo nové startupy súvisiace s autonómnymi autami, ktoré, ako sa zdá, zavrhujú väčšinu základných kameňov etiky AI (pozri moju recenziu na odkaz tu).

Na iných frontoch sa postupne do právnych kníh dostávajú nové zákony a nariadenia týkajúce sa samoriadiacich áut. Či majú potrebné zuby na ich zálohovanie, je iná vec, rovnako ako to, či sa presadzovanie týchto zákonov berie vážne alebo sa prehliada (analýzy na túto tému nájdete v mojich stĺpcoch).

Je v tom aj high-tech uhol pohľadu. Predpovedal som, že postupne uvidíme varianty robotov AI strážnych anjelov, ktoré sa dostanú do popredia v aréne autonómnych vozidiel a samoriadiacich áut. Ešte tam nie sme. To sa stane rozšírenejším, keď sa popularita samoriadiacich áut rozšíri.

Tento posledný bod prináša slávnu líniu o dôvere, ktorú už nepochybne poznáte naspamäť.

Dôveruj ale preveruj.

Môžeme si dovoliť rozšíriť svoju dôveru, možno veľkoryso. Medzitým by sme sa tiež mali pozerať ako jastrab, aby sme sa uistili, že dôvera, ktorú vyvolávame, je overená slovami aj skutkami. Vložme trochu dôvery do AI, ale donekonečna si overujeme, že dôverujeme správne a s očami dokorán.

V tom mi môžeš veriť.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/