Etika AI ostro spochybňuje klonovanie ľudského hlasu, ako sú hlasy vašich zosnulých príbuzných, určené na použitie v autonómnych systémoch AI

Ups, zdanlivo šikovný kúsok novej technológie dostal seba aj svojho výrobcu do horúcej vody.

Mám na mysli objavenie sa klonovania ľudského hlasu založeného na AI ako novej technológie, ktorá sa nedávno dostala do hlavných správ. V tomto prípade je spoločnosťou Amazon a jej neustále napredujúca Alexa.

Čitatelia môjho stĺpčeka si možno spomenú, že som sa predtým venoval neslušnému bubu, ku ktorému došlo, keď bolo hlásené, že Alexa povzbudil mladíka, aby dal cent do elektrickej zásuvky (nerobte to!), pozrite si moje spravodajstvo na odkaz tu. Za týchto okolností sa našťastie nikto nezranil a dôsledkom bolo, že systém umelej inteligencie Alexa zjavne zachytil predchádzajúci vírusový trend a bez akéhokoľvek zdania zdravého rozumu iba zopakoval bláznivý návrh, keď ho požiadali o niečo zábavné. dieťa interagujúce s Alexou. To zdôrazňuje obavy AI etiky, že sme zaplavení umelou inteligenciou, ktorej úplne chýba akýkoľvek náznak zdravého uvažovania, čo je obzvlášť náročný problém, ktorému AI čelí a ktorý naďalej vzdoruje snahám o začlenenie sa do AI (pre moju analýzu odvodenia zdravého rozumu na základe AI úsilie, viď odkaz tu).

Najnovší dustup zahŕňa klonovanie hlasu, známe tiež ako replikácia hlasu. Najnovšie technológie a AI prinášajú naliehavé úvahy o etike AI a etickej AI. Moje prebiehajúce zastrešujúce pokrytie etiky AI a etickej AI nájdete v časti odkaz tu a odkaz tu, Len aby sme vymenovali niekoľko.

Klonovanie hlasu založené na AI je jednoduchý koncept.

Systém AI je naprogramovaný na zvukový záznam niektorých vašich hovorených slov. AI sa potom pokúsi výpočtovo zistiť vaše rečové vzorce. Na základe zistených vzorov reči sa potom AI pokúsi vyslať zvukovú reč, ktorá znie rovnako ako vy. Zložitá časť je v tom, že reč pokrýva slová, ktoré ste predtým neposkytli ako zvukové vzorky AI. Inými slovami, AI musí matematicky odhadnúť, ako môžete slová vysloviť. To zahŕňa všetky charakteristiky reči, ako je tón, zvyšovanie a znižovanie hlasu, tempo alebo rýchlosť hovorenia atď.

Keď počujete, ako sa človek pokúša vydávať za iného človeka, zvyčajne môžete rozoznať, že toto úsilie je vydávanie sa za iného človeka. Z krátkodobého hľadiska, napríklad ak imitátor použije len niekoľko slov, môže byť ťažké zistiť, že hlas nie je pôvodným rečníkom. Okrem toho, ak imitátor napodobňuje slová, ktoré v skutočnosti hovoril pôvodný rečník, je pravdepodobné, že dokáže naladiť svoj vlastný hlas na hlas druhej osoby pre daný konkrétny prejav.

Stručnost a vypočutie presne tých istých slov môže niekomu do značnej miery umožniť vydávať sa za niekoho.

Výzvou sa stáva zakrývanie slov, ktoré druhá osoba nehovorila alebo pre ktoré napodobiteľ nikdy nepočul, že osoba hovorí tieto konkrétne slová. Ste trochu v tme, keď sa snažíte zistiť, ako by napodobená osoba povedala tieto slová. Dobrou správou je, že ak niekto iný, kto počúva imitátora, nevie, ako by pôvodná osoba povedala tieto slová, imitátor môže byť relatívne ďaleko od skutočného hlasu, a napriek tomu bude pôsobiť švihom a cielene.

Chcel by som tiež na chvíľu odstrániť z rovnice spôsoby a fyzický pohyb zosobnenia. Keď uvidíte napodobňovateľa, môžete byť ovplyvnení, ak dokáže zvraštiť tvár alebo mávnuť rukami spôsobom, ktorý tiež napodobňuje osobu, za ktorú sa vydáva. Pridané náznaky tela a tváre oklamú vašu myseľ, aby ste si mysleli, že hlas je tiež mŕtvy, aj keď to tak nemusí byť. Purista napodobňovania hlasu by trval na tom, že ako kritérium na určenie, či hlas vhodne napodobňuje osobu, za ktorú sa vydávate, by sa mal použiť iba samotný hlas.

Určite ste už videli rôzne deepfake videá, ktoré sa v dnešnej dobe šíria na sociálnych sieťach. Niekto šikovne upraví video tak, aby sa vo videu objavila tvár niekoho iného, ​​pričom prekryje tvár niekoho iného v pôvodnom zázname. Toto je zvyčajne tiež sprevádzané falšovaním hlasu. Dostanete dvojitú pohromu, ktorá zahŕňa vizuálnu zmenu videa pomocou deepfake AI a zmenu zvuku prostredníctvom deepfake AI.

V záujme diskusie v tomto dokumente sa sústreďujem iba na hlboké falošné zvukové aspekty založené na AI, ktoré sa, ako už bolo spomenuté, bežne označujú ako klonovanie hlasu alebo replikácia hlasu. Niektorí o tom drzo hovoria ako o hlase v plechovke.

Som si istý, že niektorí z vás práve teraz nabádajú, že už nejaký čas máme možnosť používať počítačové programy na klonovanie hlasov. Toto nie je samo o sebe nič nové. Súhlasím. Zároveň musíme uznať, že táto špičková technológia je stále lepšia a lepšia. No, hovorím lepšie a lepšie, ale možno, ako o chvíľu uvidíte, by som mal povedať, že je to čoraz znepokojujúcejšie a znepokojujúcejšie.

Drž sa tej myšlienky.

Technologická zdatnosť pri klonovaní hlasu určite napreduje. Napríklad, bývalo to tak, že ste museli „trénovať“ program na replikáciu zvuku AI nahovorením celého príbehu zmiešaných slov. Podobne ako slávna alebo neslávne známa línia rýchlej hnedej líšky, ktorá preskočila lenivého psa (línia určená na to, aby prinútila niekoho pokryť všetky písmená abecedy), existujú špeciálne vytvorené poviedky, ktoré obsahujú zmes slov na účely prinúti vás povedať dostatok slov a dostatočne širokú škálu slov, aby bolo porovnávanie vzorov AI oveľa jednoduchšie.

Možno ste museli prečítať niekoľko strán slov, často vrátane slov, ktoré sa vám nedarí vysloviť a ani si nie ste istí, čo znamenajú, aby ste dostatočne umožnili porovnávanie vzorov AI. Môže to trvať niekoľko minút alebo niekedy aj hodiny rozprávania, aby AI mala dostatok zvuku na nájdenie odlišných vzorcov vášho hlasu. Ak by ste túto tréningovú aktivitu skrátili, je pravdepodobné, že výslednú hlasovú replikáciu ľahko zostrelí každý z vašich priateľov, ktorí dobre poznajú váš hlas.

Dobre, záujem vývojárov AI sa vtedy sústredil na to, ako optimalizovať aspekty replikácie zvuku. Tvorcovia AI majú radi výzvy. Hovorí sa, že sú v srdci optimalizátori. Dajte im problém a budú mať tendenciu optimalizovať bez ohľadu na to, kam to môže viesť (uvádzam to ako predzvesť, ktorá sa čoskoro vyjasní).

Odpovedz mi na toto:

  • Aké je najmenšie množstvo zvukovej vzorky, ktorá by bola potrebná na maximálne naklonovanie hlasu osoby a ktorej zvukovou vzorkou môže byť takmer akýkoľvek náhodne povolený súbor slov, a napriek tomu umožňuje klonovanie hlasu produkovať takmer akékoľvek slová, ktoré by mohli byť kedy vyslovené? cieleným hlasom a zvuk v podstate identický s hlasom tejto osoby v konverzačnom alebo inom kontextovom prostredí podľa výberu?

Je tam toho veľa na rozbaľovanie.

Majte na pamäti, že chcete minimálnu zvukovú vzorku, ktorá maximálne naklonuje hlas, takže výsledné prejavy AI v tomto teraz automatizovanom replikovanom hlase sa budú zdať úplne na nerozoznanie od skutočnej osoby. Je to zložitejšie, ako si možno myslíte.

Je to skoro ako tá herná show, v ktorej sa musíte pokúsiť pomenovať pieseň podľa najmenšieho počtu počutých nôt. Čím menej nôt hrá, tým ťažšie je uhádnuť, o ktorú skladbu ide. Ak je váš odhad nesprávny, stratíte body alebo prehráte hru. Nasleduje boj o to, či by ste mali použiť len jednu notu, čo najmenší náznak, ale potom sa vaša pravdepodobnosť uhádnutia piesne pravdepodobne výrazne zníži. Čím viac nôt počujete, tým vyššia je pravdepodobnosť, že uhádnete správnu skladbu, ale umožníte tým ostatným súťažiacim, aby tiež mali väčšiu šancu uhádnuť.

Pamätajte, že v prípade klonovania hlasu máme do činenia aj s pojmom predpísané slová verzus akékoľvek slová. Ak niekto povie slová „Nedokážete zvládnuť pravdu“ a my chceme, aby AI napodobňovala alebo zosobňovala danú osobu, umelá inteligencia môže výpočtovo pravdepodobne ľahko zachytiť vzor. Na druhej strane, predpokladajme, že máme tieto slová len tak, ako to hovorí tá osoba: „To je všetko, čo sa ma musíš opýtať“ a chceme tieto slová použiť na to, aby AI povedala „Nedokážeš zvládnuť pravdu“. Myslím, že môžete vidieť, aké ťažké je trénovať na jednej skupine slov a extrapolovať na úplne inú skupinu slov.

Ďalším náročným prvkom je kontext pre hovorené slová. Predpokladajme, že vás prinútime nahrať vetu zvukovo, keď ste pokojní a v pohode. AI tieto slová vytvára. Môže sa to prejaviť aj podľa pokoja vášho hlasu. Predstavte si, že potom chceme, aby AI predstierala, že ste to vy, keď kričíte šialený a nahnevaný ako sršeň. To, že AI skreslí pôvodný vzor, ​​aby sa z neho stala presne nahnevaná verzia vášho hlasu, môže byť skľučujúce.

Na aké minimá sa pozeráme?

Momentálnym cieľom je prekonať hranicu minút.

Získajte nahraný hlas, pre ktorý máte menej ako minútu zvuku, a nechajte AI urobiť všetko úžasné klonovanie hlasu iba z tejto nepatrnej vzorky. Chcem objasniť, že takmer každý môže vytvoriť AI, ktorá to dokáže všeobecne za menej ako jednu minútu, hoci výsledný hlasový klon je slabý a ľahko sa zistí ako neúplný. Opäť výslovne a neústupne spájam, že čas odberu vzoriek je minimálny a medzitým je klonovanie hlasu na maxime. Dolt môže dosiahnuť minimálny odber vzoriek, ak môžu byť pri klonovaní hlasu výrazne submaximálne.

Toto je zábavná a vzrušujúca technologická výzva. Možno sa však pýtate na hodnotu alebo výhody tohto konania. Aký cieľ hľadáme? Aké prínosy pre ľudstvo môžeme očakávať, ak dokážeme tak efektívne a efektívne vykonávať replikáciu hlasu založenú na AI?

Chcem, aby ste sa zamysleli nad tou mäsitou otázkou.

Nesprávna odpoveď vás môže dostať nedopatrením do kopy kaše.

Tu je niečo, čo sa zdá byť optimistické a celkom pozitívne.

Predpokladajme, že by sme mohli mať staré nahrávky slávnych ľudí, ako je Abraham Lincoln, a mohli sme použiť tieto zaprášené zvukové úryvky na vytvorenie hlasového klonu založeného na AI. Potom sme počuli Lincolna hovoriť Gettysburgskú adresu, ako keby sme tam boli v deň, keď predniesol pamätnú reč pred siedmimi rokmi. Ako vedľajšiu poznámku, žiaľ, nemáme žiadne zvukové nahrávky Lincolnovho hlasu (technológia ešte neexistovala), ale máme hlasové nahrávky prezidenta Benjamina Harrisona (prvého z amerických prezidentov, ktorý má hlasovú nahrávku ) a ďalší prezidenti.

Verím, že by sme sa všetci rozumne zhodli na tom, že toto konkrétne použitie klonovania hlasu založeného na AI je úplne v poriadku. V skutočnosti by sme to asi chceli viac, ako keby sa dnes herec snažil predstierať, že hovorí ako Lincoln. Herec by si pravdepodobne vymýšľal čokoľvek, ako si mysleli, že Lincolnov skutočný hlas znie. Bol by to výmysel, možno vzdialený od Lincolnovho hlasu. Namiesto toho by pomocou dobre kvalifikovaného systému klonovania hlasu AI existovalo len málo argumentov o tom, ako Lincolnov hlas skutočne znel. Umelá inteligencia by bola fakticky správna, prinajmenšom do tej miery, do akej je umelá inteligencia dobrá pri replikácii cieleného hlasu.

V kategórii dobroty o klonovaní hlasu AI môžeme s takýmto prípadom použitia vyhrať.

Nechcem byť pochmúrny, ale aj toto zjavne nadštandardné použitie má svoju nevýhodu.

Niekto používa systém klonovania hlasu AI, aby zistil hlas Theodora Roosevelta („Teddyho“), nášho vzácneho 26th Prezident Spojených štátov amerických, prírodovedec, ochranca prírody, štátnik, spisovateľ, historik a takmer všeobecne označovaný za váženú osobu. Príhovory, ktoré predniesol a ku ktorým nemáme žiadne historicky zachované zvukové verzie, sa teraz dajú „nahovoriť“ tak, ako keby dnes hovoril on osobne. Chvályhodná vzpruha pre štúdium histórie.

Poďme to zmeniť na škaredé, jednoducho preto, aby sme odhalili jeho nevýhody.

Hlasový klon založený na Teddy AI používame na čítanie prejavu, ktorý predniesol zlý diktátor. AI sa nestará o to, čo hovorí, pretože v AI nie je ani náznak vnímania. Slová sú jednoducho slová, alebo presnejšie len nádchy.

Možno by ste boli nahnevaní, že niekto urobí niečo také nešikovné. Prečo by sa sakra klonovaný hlas renomovaného a uctievaného Theodora Roosevelta založený na umelej inteligencii používal na prednesenie prejavu, ktorý Teddy nielenže pôvodne nerobil, ale navyše hovorí o téme, ktorá zobrazuje nejaké zlo opovrhnutiahodného? diktátor?

Poburujúce, môžete zvolať.

Jednoducho urobené, prichádza odpoveď.

V podstate jedna veľmi dôležitá obava z replikácie hlasu založeného na AI je, že sa zrazu ocitneme zaplavení falošnými alebo povedzme hlboko falošnými prejavmi a výrokmi, ktoré nemajú nič spoločné s historickými faktami alebo presnosťami. Ak sa ich vytvorí a zverejní dosť, mohli by sme byť zmätení v tom, čo je skutočnosť a čo je fikcia.

Môžete vidieť, ako by to mohlo vzniknúť. Pomocou hlasového klonu založeného na AI niekto vytvorí zvukovú nahrávku Woodrowa Wilsona s prejavom, ktorý v skutočnosti nikdy nepredniesol. Toto je zverejnené na internete. Niekto iný počuje nahrávku a verí, že je to skutočná vec. Zverejňujú to inde a uvádzajú, že našli túto skvelú historickú nahrávku Woodrowa Wilsona. Čoskoro študenti na hodinách dejepisu používajú zvuk namiesto čítania písomnej verzie prejavu.

Nikto nakoniec nevie, či prejav predniesol Woodrow Wilson alebo nie. Možno to tak bolo, možno nie, a každý si myslí, že na tom nezáleží (teda na tých, ktoré nie sú zamerané na historickú presnosť a fakty). Samozrejme, ak je prejav podlý, vyvoláva to nesprávny dojem alebo dezinformačný obraz tejto historickej postavy. História a fikcia sú spojené do jedného.

Verím, že ste, dúfajme, presvedčení, že ide o nevýhodu spojenú s klonovaním hlasu založenom na AI.

Opäť platí, že už môžeme robiť tieto druhy vecí, a to bez novšej a vylepšenej replikácie hlasu založenej na AI, ale bude to jednoduchšie a výsledný zvuk bude mimoriadne ťažké rozlíšiť medzi skutočným a falošným. V súčasnosti môžete pomocou bežných programov na produkciu zvuku zvyčajne počúvať výstup a často ľahko zistiť, že zvuk je sfalšovaný. S pokrokom v AI už čoskoro nebudete môcť veriť vlastným ušiam.

Akokoľvek zlé môže byť klonovanie hlasu historických postáv, musíme sa zamyslieť nad možno obzvlášť ohavným využívaním, ktoré zahŕňa žijúcich ľudí dneška.

Po prvé, počuli ste niekedy o trochu populárnom podvode, ktorý zahŕňa niekoho, kto sa vydáva za šéfa alebo jeho ekvivalent? Pred niekoľkými rokmi sa objavila znepokojivá móda volania do reštaurácie alebo obchodu a vydávania sa za šéfa podniku. Falšovanie by zahŕňalo prikázanie zamestnancovi, aby robil smiešne veci, ktoré by často poslušne robili pod falošným presvedčením, že sa rozprávajú so svojím šéfom.

Nechcem sa utápať v týchto druhoch rozhorčených nekalých činov, ale ďalšia relevantná vec je zavolať niekoho, kto môže byť nedoslýchavý, a predstierať, že je ich vnuk alebo vnučka. Napodobňovateľ sa snaží presvedčiť starého rodiča, aby poskytol peniaze na pomoc alebo možno nejakým spôsobom zachránil. Na základe zosobneného hlasu je starý rodič oklamaný. Opovrhnutiahodné. Dehonestujúce. Smutný.

Chystáme sa vstúpiť do éry, v ktorej klonovanie hlasu založené na AI umožní na steroidoch, ak ste boli, príchod podvodov a podvodov súvisiacich s hlasom. Umelá inteligencia vykoná takú pozoruhodnú prácu pri replikácii hlasu, že každý, kto hlas počuje, bude prisahať, že hovorila skutočná osoba.

Ako ďaleko to môže zájsť?

Niektorí sa obávajú, že k uvoľneniu povedzme atómových zbraní a vojenským útokom by mohlo dôjsť tým, že niekto použije hlasový klon založený na AI, ktorý oklame ostatných, aby uverili, že priamy príkaz vydáva najvyšší vojenský dôstojník. To isté by sa dalo povedať o každom v akomkoľvek významnom postavení. Pomocou mimoriadne presného hlasového klonu AI prinútite bankového manažéra, aby uvoľnil finančné prostriedky vo výške miliónov dolárov, a to na základe toho, že ste boli oklamaní, aby verili, že hovoria s bankovým klientom po ruke.

V minulých rokoch by to s AI nemuselo byť nevyhnutne presvedčivé. V momente, keď človek na druhom konci telefónu začne klásť otázky, AI sa bude musieť odchýliť od pripraveného skriptu. V tom momente by sa klonovanie hlasu zhoršilo, niekedy až radikálne. Jediným spôsobom, ako udržať podvod v chode, bolo prinútiť konverzáciu späť do scenára.

S typom AI, ktorý dnes máme, vrátane pokrokov v spracovaní prirodzeného jazyka (NLP), môžete spustiť skript a potenciálne sa zdá, že hlasový klon AI hovorí prirodzeným konverzačným spôsobom (nie je to vždy tak, a stále existujú spôsoby, ako spustiť AI).

Predtým, ako sa dostaneme k mäsu a zemiakom o divokých a vlnených úvahách, ktoré sú základom klonovania hlasu založeného na umelej inteligencii, stanovme si niekoľko ďalších základov na úplne zásadné témy. Musíme sa krátko ponoriť do etiky AI a najmä do nástupu strojového učenia (ML) a hlbokého učenia (DL).

Možno ste si matne uvedomovali, že jeden z najhlasnejších hlasov v súčasnosti v oblasti AI a dokonca aj mimo oblasti AI pozostáva z volania po väčšej podobe Etickej AI. Poďme sa pozrieť na to, čo znamená odvolávať sa na etiku umelej inteligencie a etickú umelú inteligenciu. Okrem toho preskúmame, čo mám na mysli, keď hovorím o strojovom učení a hĺbkovom učení.

Jeden konkrétny segment alebo časť etiky umelej inteligencie, ktorá si získala veľkú pozornosť médií, pozostáva z umelej inteligencie, ktorá sa prejavuje nežiaducimi zaujatosťami a nerovnosťami. Možno ste si vedomí toho, že keď sa rozbehla najnovšia éra AI, došlo k obrovskému výbuchu nadšenia pre to, čo niektorí dnes nazývajú AI pre dobro. Bohužiaľ, v pätách tohto tryskajúceho vzrušenia sme začali byť svedkami AI pre zlé. Napríklad sa ukázalo, že rôzne systémy na rozpoznávanie tváre založené na AI obsahujú rasové a rodové predsudky, o ktorých som diskutoval na odkaz tu.

Snahy brániť sa AI pre zlé aktívne prebiehajú. Okrem hlučného právne v snahe o zvládnutie previnenia existuje aj výrazný tlak na prijatie etiky AI, aby sa napravila odpornosť AI. Myšlienka je taká, že by sme mali prijať a podporiť kľúčové etické princípy AI pre vývoj a zavádzanie AI, aby sme podkopali AI pre zlé a súčasne ohlasovať a podporovať preferované AI pre dobro.

V súvislosti s tým som zástancom pokusu použiť AI ako súčasť riešenia problémov s AI a bojovať s ohňom ohňom týmto spôsobom myslenia. Mohli by sme napríklad vložiť etické komponenty AI do systému AI, ktorý bude monitorovať, ako zvyšok AI robí veci, a tak potenciálne zachytiť v reálnom čase akékoľvek diskriminačné snahy, pozri moju diskusiu na odkaz tu. Mohli by sme mať aj samostatný systém AI, ktorý funguje ako typ monitora etiky AI. Systém AI slúži ako dozorca na sledovanie a zisťovanie, kedy sa iná AI dostane do neetickej priepasti (pozri moju analýzu takýchto schopností na odkaz tu).

O chvíľu sa s vami podelím o niekoľko základných princípov, ktoré sú základom etiky AI. Takýchto zoznamov sa tu a tam pohybuje veľa. Dalo by sa povedať, že zatiaľ neexistuje jednotný zoznam univerzálnej príťažlivosti a súbežnosti. To je tá nešťastná správa. Dobrou správou je, že aspoň existujú ľahko dostupné zoznamy etiky AI a bývajú dosť podobné. Celkovo to naznačuje, že formou rozumnej konvergencie svojho druhu nachádzame cestu k všeobecnej zhode toho, z čoho pozostáva etika umelej inteligencie.

Najprv si stručne popíšme niektoré z celkových etických zásad AI, aby sme ilustrovali, čo by malo byť životne dôležitým faktorom pre každého, kto vytvára, využíva alebo používa AI.

Napríklad, ako uvádza Vatikán v Rím vyzýva na etiku AI a ako som sa podrobne venoval odkaz tuToto je ich identifikovaných šesť základných etických princípov AI:

  • transparentnosť: V zásade musia byť systémy AI vysvetliteľné
  • začlenenie: Potreby všetkých ľudských bytostí musia byť brané do úvahy, aby z toho mohol mať úžitok každý, a aby všetkým jednotlivcom mohli byť ponúknuté najlepšie možné podmienky na sebavyjadrenie a rozvoj.
  • odpovedá: Tí, ktorí navrhujú a nasadzujú používanie AI, musia postupovať zodpovedne a transparentne
  • nestrannosť: Nevytvárajte ani nekonajte podľa zaujatosti, čím si zabezpečíte spravodlivosť a ľudskú dôstojnosť
  • Spoľahlivosť: Systémy AI musia byť schopné spoľahlivo fungovať
  • Bezpečnosť a súkromie: Systémy AI musia fungovať bezpečne a rešpektovať súkromie používateľov.

Ako uviedlo americké ministerstvo obrany (DoD) vo svojom Etické princípy používania umelej inteligencie a ako som sa podrobne venoval odkaz tuToto je ich šesť základných etických princípov AI:

  • Zodpovedný: Personál ministerstva obrany bude uplatňovať primeranú úroveň úsudku a starostlivosti, pričom zostane zodpovedný za vývoj, nasadenie a používanie schopností AI.
  • Spravodlivé: Ministerstvo podnikne premyslené kroky, aby minimalizovalo neúmyselné skreslenie schopností AI.
  • Vysledovateľné: Schopnosti umelej inteligencie ministerstva sa vyvinú a rozmiestnia tak, aby príslušní pracovníci primerane rozumeli technológiám, vývojovým procesom a prevádzkovým metódam použiteľným na schopnosti umelej inteligencie, vrátane transparentných a kontrolovateľných metodík, zdrojov údajov a návrhových postupov a dokumentácie.
  • spoľahlivosť: Schopnosti umelej inteligencie ministerstva budú mať explicitné, dobre definované využitie a bezpečnosť, zabezpečenie a efektívnosť takýchto schopností bude predmetom testovania a zabezpečenia v rámci týchto definovaných použití počas celého životného cyklu.
  • Riaditeľné: Ministerstvo navrhne a skonštruuje schopnosti AI tak, aby plnili zamýšľané funkcie, pričom majú schopnosť odhaliť a vyhnúť sa neúmyselným následkom a schopnosť odpojiť alebo deaktivovať nasadené systémy, ktoré prejavujú neúmyselné správanie.

Diskutoval som aj o rôznych kolektívnych analýzach etických princípov AI, vrátane toho, že som sa zaoberal súborom navrhnutým výskumníkmi, ktorí preskúmali a zhrnuli podstatu mnohých národných a medzinárodných etických zásad AI v článku s názvom „Globálna krajina etických zásad AI“ (zverejnená v príroda), a ktoré moje pokrytie skúma na odkaz tu, čo viedlo k tomuto kľúčovému zoznamu:

  • Priehľadnosť
  • Spravodlivosť a spravodlivosť
  • Neškodnosť
  • zodpovednosť
  • súkromia
  • dobročinnosť
  • Sloboda a autonómia
  • Verte
  • Udržateľnosť
  • dôstojnosť
  • Solidarita

Ako môžete priamo uhádnuť, pokúsiť sa určiť špecifiká, ktoré sú základom týchto princípov, môže byť mimoriadne ťažké. O to viac, snaha premeniť tieto široké princípy na niečo úplne hmatateľné a dostatočne podrobné na to, aby sa dali použiť pri vytváraní systémov AI, je tiež tvrdým orieškom. Celkovo je ľahké mávnuť rukou nad tým, čo sú to etické predpisy AI a ako by sa mali vo všeobecnosti dodržiavať, zatiaľ čo v kódovaní AI je oveľa komplikovanejšia situácia, keď musí ísť o skutočnú gumu, ktorá sa stretáva s vozovkou.

Princípy AI etiky majú využívať vývojári AI spolu s tými, ktorí riadia snahy o vývoj AI, a dokonca aj tí, ktorí v konečnom dôsledku nasadzujú a vykonávajú údržbu systémov AI. Všetky zainteresované strany počas celého životného cyklu vývoja a používania AI sa berú do úvahy v rámci dodržiavania zavedených noriem Etickej AI. Toto je dôležitý prvok, pretože zvyčajný predpoklad je, že „iba kóderi“ alebo tí, ktorí programujú AI, podliehajú dodržiavaniu etických pojmov AI. Ako už bolo spomenuté, na vymyslenie a nasadenie AI je potrebná dedina, v ktorej sa celá dedina musí vyznať a dodržiavať etické predpisy AI.

Uistime sa tiež, že sme na rovnakej stránke o povahe dnešnej AI.

Dnes neexistuje žiadna umelá inteligencia, ktorá by bola vnímavá. Toto my nemáme. Nevieme, či bude vnímajúca AI možná. Nikto nemôže vhodne predpovedať, či dosiahneme vnímajúcu AI, ani to, či sa vnímajúca AI nejakým zázrakom spontánne objaví vo forme výpočtovej kognitívnej supernovy (zvyčajne označovanej ako singularita, pozri moje pokrytie na odkaz tu).

Typ AI, na ktorý sa zameriavam, pozostáva z necitlivej AI, ktorú máme dnes. Ak by sme chceli divoko špekulovať o cítiaci AI, táto diskusia by sa mohla uberať radikálne iným smerom. Vnímajúca AI by mala mať ľudské kvality. Mali by ste zvážiť, že vnímajúca AI je kognitívnym ekvivalentom človeka. Navyše, keďže niektorí špekulujú, že by sme mohli mať superinteligentnú AI, je možné, že takáto AI by mohla byť inteligentnejšia ako ľudia.

Nechajme veci viac pri zemi a zvážme dnešnú výpočtovú necitlivú AI.

Uvedomte si, že dnešná AI nie je schopná „myslieť“ akýmkoľvek spôsobom na rovnakej úrovni ako ľudské myslenie. Keď komunikujete s Alexou alebo Siri, konverzačné schopnosti sa môžu zdať podobné ľudským schopnostiam, ale realita je taká, že sú výpočtové a chýba im ľudské poznanie. Najnovšia éra AI vo veľkej miere využíva strojové učenie (ML) a hlboké učenie (DL), ktoré využívajú porovnávanie výpočtových vzorov. To viedlo k systémom AI, ktoré vyzerajú ako ľudia. Medzitým dnes neexistuje žiadna umelá inteligencia, ktorá by mala zdanie zdravého rozumu, ani žiadny z kognitívnych zázrakov robustného ľudského myslenia.

ML/DL je forma porovnávania výpočtových vzorov. Zvyčajný prístup je taký, že zhromažďujete údaje o úlohe rozhodovania. Dáta vložíte do počítačových modelov ML/DL. Tieto modely sa snažia nájsť matematické vzorce. Po nájdení takýchto vzorov, ak sa nájdu, systém AI potom použije tieto vzory pri stretnutí s novými údajmi. Po predložení nových údajov sa na vyvodenie aktuálneho rozhodnutia použijú vzory založené na „starých“ alebo historických údajoch.

Myslím, že viete hádať, kam to smeruje. Ak ľudia, ktorí sa rozhodovali podľa vzoru, začlenili do seba nepriaznivé predsudky, je pravdepodobné, že údaje to odrážajú jemným, ale významným spôsobom. Zhoda výpočtových vzorov Machine Learning alebo Deep Learning sa jednoducho pokúsi zodpovedajúcim spôsobom matematicky napodobniť údaje. Neexistuje žiadne zdanie zdravého rozumu alebo iných vnímavých aspektov modelovania vytvoreného AI ako takého.

Okrem toho si vývojári AI nemusia uvedomiť, čo sa deje. Tajomná matematika v ML/DL môže sťažiť odhalenie teraz skrytých predsudkov. Oprávnene by ste dúfali a očakávali, že vývojári AI budú testovať potenciálne skryté predsudky, hoci je to zložitejšie, ako by sa mohlo zdať. Existuje solídna šanca, že aj pri relatívne rozsiahlom testovaní budú v modeloch zhody vzorov ML/DL stále zakomponované odchýlky.

Do istej miery by ste mohli použiť známe alebo neslávne známe príslovie o odpadkoch do odpadu. Ide o to, že je to skôr podobné zaujatostiam – in, ktoré sa zákerne naplnia, keď sa predsudky ponoria do AI. Algoritmus rozhodovania (ADM) AI je axiomaticky zaťažený nerovnosťami.

Nie dobré.

Vráťme sa k nášmu zameraniu na klonovanie hlasu založené na AI.

Na nedávnej konferencii bola prezentácia od Amazonu určená na predvedenie žiadúcich výhod hlasového klonovania založeného na AI a zvýraznenie najnovšej špičkovej AI používanej v Alexe na zlepšenie jej schopností. Podľa spravodajských správ pripravený príklad, ktorý mal byť potešujúci a povzbudzujúci, spočíval v tom, že dieťa požiadalo Alexu, aby im ich stará mama dočítala príbeh o Čarodejník z krajiny Oz. Poslucháčom bolo povedané, že babička zomrela a že to bol pre dieťa prostriedok, ako sa v podstate znovu spojiť so svojím drahým starým rodičom. Toto všetko bolo zjavne súčasťou videa, ktoré dal dohromady Amazon, aby pomohol pri predvádzaní najnovších objavov v oblasti klonovania hlasu AI od vývojového tímu Alexa (zahŕňajúceho funkcie, ktoré ešte neboli oficiálne spustené na verejné použitie).

Jednou z reakcií na tento príklad je, že sa nás môže dotknúť, že dieťa opäť môže počuť hlas svojej babičky. Predpokladáme, že babička ešte nenahrala celé čítanie príbehu, takže klonovanie AI urobilo prácu, aby veci vyzerali, akoby teraz celé čítanie čítala babička.

Pozoruhodný a úžasný spôsob, ako sa znova spojiť s blízkymi, ktorí už nie sú medzi nami.

Nie všetci reportéri a analytici (plus Twitter) boli tak naklonení priaznivej interpretácii tohto pokroku. Niektorí to označili za priam strašidelné. Pokúšať sa obnoviť hlas zosnulej milovanej osoby bolo vraj zvláštne a trochu bizarné.

Veľa otázok, ako napríklad:

  • Bolo by dieťa zmätené a uverilo by, že zosnulý milovaný ešte žije?
  • Mohlo by sa teraz dieťa zviesť do nejakého nemiestneho žartu alebo podvodu v falošnej viere, že babička je stále s nami?
  • Môže dieťa trpieť tým, že sa dopočuje o zosnulom milovanom človeku, a byť skľúčené, keď mu opäť chýba starý rodič, akoby otváralo už urovnané emocionálne rany?
  • Bude si dieťa myslieť, že zosnulý môže hovoriť z druhej strany, totiž že tento mystický hlas, ktorý sa javí ako jeho stará mama, k nemu hovorí zo záhrobia?
  • Je možné, že si dieťa bude myslieť, že AI nejakým spôsobom stelesnila jeho starú mamu a antropomorfizovala AI tak, že dieťa vyrastie vo viere, že AI dokáže úplne replikovať ľudí?
  • Predpokladajme, že sa dieťa tak zamiluje do babičkinho hlasu replikovaného umelou inteligenciou, že sa stane posadnutým a používa tento hlas na všetky spôsoby počúvania zvuku?
  • Môže sa predajca, ktorý replikuje hlas, rozhodnúť použiť tento hlas pre ostatných, ktorí používajú rovnaký celkový systém, bez toho, aby dostal výslovné povolenie od rodiny, a teda „profitoval“ z navrhnutého hlasu?
  • A tak ďalej.

Je dôležité si uvedomiť, že dokážete vykúzliť práve toľko negatív ako pozitív, alebo povedzme toľko pozitív ako negatív. Základom týchto pokrokov AI sú kompromisy. Pozerať sa len na jednu stranu mince je možno krátkozraké.

Kľúčom je uistiť sa, že sa pozeráme na všetky strany týchto problémov. Nenechajte sa zamračiť vo svojom myslení. Môže byť ľahké skúmať iba pozitíva. Môže byť ľahké preskúmať iba negatíva. Musíme preskúmať oboje a zistiť, čo možno urobiť, aby sme, dúfajme, využili pozitíva a pokúsili sa znížiť, odstrániť alebo aspoň zmierniť negatíva.

To je do istej miery dôvod, prečo je etika AI a etická AI taká kľúčová téma. Prikázania etiky AI nás vedú k tomu, aby sme zostali ostražití. Technológovia umelej inteligencie môžu byť niekedy zaujatí technológiou, najmä optimalizáciou špičkových technológií. Nezohľadňujú nevyhnutne väčšie spoločenské dôsledky. Mať etické myslenie AI a robiť to integrálne s vývojom a zavádzaním AI je nevyhnutné na vytváranie vhodnej AI.

Okrem využívania etiky AI existuje zodpovedajúca otázka, či by sme mali mať zákony upravujúce rôzne spôsoby použitia AI, ako sú napríklad funkcie hlasového klonovania založené na AI. Na federálnej, štátnej a miestnej úrovni sa zavádzajú nové zákony, ktoré sa týkajú rozsahu a povahy toho, ako by mala byť navrhnutá AI. Snaha vypracovať a prijať takéto zákony je postupná. Etika AI slúži prinajmenšom ako zvažovaná prestávka.

Ako už bolo povedané, niektorí tvrdia, že nepotrebujeme nové zákony, ktoré pokrývajú AI, a že naše existujúce zákony sú dostatočné. V skutočnosti varujú, že ak prijmeme niektoré z týchto zákonov o AI, zabijeme zlatú hus tým, že potlačíme pokroky v AI, ktoré ponúkajú obrovské spoločenské výhody. Pozrite si napríklad moje pokrytie na odkaz tu a odkaz tu.

Stavil by som sa, že v tomto bode tejto závažnej diskusie túžite po niekoľkých názorných príkladoch, ktoré by mohli ukázať túto tému. Existuje špeciálny a určite populárny súbor príkladov, ktoré sú môjmu srdcu blízke. Vidíte, ako odborník na AI vrátane etických a právnych dôsledkov ma často žiadajú, aby som identifikoval realistické príklady, ktoré predstavujú dilemy etiky AI, aby bolo možné ľahšie pochopiť trochu teoretickú povahu tejto témy. Jednou z najviac evokujúcich oblastí, ktorá názorne prezentuje tento etický problém AI, je príchod skutočne samoriadiacich áut založených na AI. Bude to slúžiť ako praktický príklad použitia alebo príklad na rozsiahlu diskusiu na túto tému.

Tu je potom pozoruhodná otázka, ktorá stojí za zamyslenie: Osvetlí príchod skutočne samoriadiacich áut založených na AI niečo o klonovaní hlasu založenom na AI, a ak áno, čo to predstavuje?

Dovoľte mi chvíľu rozbaliť otázku.

Po prvé, všimnite si, že v skutočne samoriadiacom aute nie je žiadny ľudský vodič. Majte na pamäti, že skutočne samoriadiace autá sú poháňané systémom AI. Nie je potrebný ľudský vodič za volantom, ani neexistuje ustanovenie, aby vozidlo riadil človek. Pre moje rozsiahle a neustále pokrytie autonómnych vozidiel (AV) a najmä autonómnych áut viď odkaz tu.

Rád by som ďalej objasnil, čo sa myslí, keď hovorím o skutočne samoriadiacich autách.

Porozumenie úrovniam samoriadiacich automobilov

Pre vysvetlenie, skutočne samoriadiace autá sú tie, kde AI riadi auto úplne sama a pri riadení nie je žiadna asistencia človeka.

Tieto vozidlá bez vodiča sa považujú za úroveň 4 a úroveň 5 (pozri moje vysvetlenie na tento odkaz tu), zatiaľ čo auto, ktoré vyžaduje, aby sa ľudský vodič podieľal na riadení, sa zvyčajne považuje za úroveň 2 alebo úroveň 3. Autá, ktoré sa podieľajú na úlohe riadenia, sú opísané ako poloautonómne a zvyčajne obsahujú rôzne automatizované doplnky, ktoré sa označujú ako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 ešte nie je skutočné samoriadiace auto a ešte ani nevieme, či to bude možné dosiahnuť, ani ako dlho bude trvať, kým sa tam dostaneme.

Medzitým sa úsilie úrovne 4 postupne pokúša získať určitú trakciu podstupovaním veľmi úzkych a selektívnych testov na verejných cestách, hoci existuje polemika o tom, či by toto testovanie malo byť povolené ako také (v experimente sme všetci pokusnými králikmi na život a na smrť). ktoré sa odohrávajú na našich diaľniciach a vedľajších cestách, niektorí tvrdia, pozri moje spravodajstvo na tento odkaz tu).

Keďže poloautonómne automobily si vyžadujú vodiča, prijatie týchto typov automobilov sa nebude výrazne líšiť od riadenia konvenčných vozidiel, takže o tejto téme nie je samo o sebe veľa nových (ako vidíte, uvidíte) za okamih sa spravidla použijú nasledujúce body).

V prípade autonómnych automobilov je dôležité, aby verejnosť musela byť upozornená na rušivý aspekt, ktorý sa objavuje v poslednej dobe, a to napriek tomu, že napriek tým vodičom, ktorí neustále vysielajú svoje videá, ktoré zaspávajú za volantom automobilu úrovne 2 alebo 3 , musíme sa vyhnúť tomu, aby sme boli uvedení do omylu v presvedčenie, že vodič môže odvádzať svoju pozornosť od úlohy pri riadení čiastočne autonómneho vozidla.

Ste zodpovednou stranou za jazdné vlastnosti vozidla bez ohľadu na to, do akej miery by sa automatizácia mohla hodiť na úroveň 2 alebo úroveň 3.

Samoriadiace autá a klonovanie hlasu založené na AI

Pri vozidlách s vlastným riadením na úrovni 4 a 5 sa do úlohy vedenia vozidla nebude podieľať ľudský vodič.

Všetci cestujúci budú cestujúcimi.

AI robí jazdu.

Jedným z aspektov, o ktorých je potrebné okamžite diskutovať, je skutočnosť, že AI zapojená do dnešných systémov riadenia AI nie je vnímavá. Inými slovami, AI je celkom kolektív počítačového programovania a algoritmov a je nepochybne neschopný uvažovať rovnakým spôsobom ako ľudia.

Prečo je tento zvýšený dôraz na to, aby AI nebola vnímavá?

Pretože by som chcel zdôrazniť, že keď diskutujem o úlohe jazdného systému AI, nepripisujem AI ľudské vlastnosti. Uvedomte si, že v dnešnej dobe pretrváva nebezpečná tendencia k antropomorfizácii AI. Ľudia v podstate priraďujú dnešnému UI sentiment podobný človeku, a to aj napriek nepopierateľnému a nespochybniteľnému faktu, že zatiaľ taký AI neexistuje.

S týmto objasnením si môžete predstaviť, že systém riadenia umelej inteligencie nebude natívne nejako „vedieť“ o aspektoch riadenia. Vedenie vozidla a všetko, čo k tomu patrí, bude potrebné programovať ako súčasť hardvéru a softvéru samostatne riadeného automobilu.

Poďme sa ponoriť do nespočetného množstva aspektov, ktoré sa budú hrať na túto tému.

Po prvé, je dôležité si uvedomiť, že nie všetky autá s umelou inteligenciou sú rovnaké. Každá automobilka a technologická firma s vlastným pohonom pristupuje k navrhovaniu samoriadiacich áut. Preto je ťažké urobiť rozsiahle vyhlásenia o tom, čo AI riadiace systémy urobia alebo neurobia.

Okrem toho, kedykoľvek sa uvádza, že riadiaci systém AI nerobí konkrétne veci, neskôr to môžu predbehnúť vývojári, ktorí počítač v skutočnosti naprogramujú tak, aby to urobil. Krok za krokom sa systémy riadenia AI postupne vylepšujú a rozširujú. Existujúce obmedzenie dnes už nemusí existovať v budúcej iterácii alebo verzii systému.

Dúfam, že to poskytuje dostatočnú litániu upozornení na podloženie toho, čo sa chystám povedať.

Poďme načrtnúť scenár, ktorý by mohol využiť klonovanie hlasu založené na AI.

Rodič a ich dieťa nasadnú do samoriadiaceho auta založeného na AI. Idú do miestneho obchodu s potravinami. Očakáva sa, že to bude relatívne nenáročná jazda. Stačí týždenná jazda do obchodu, aj keď vodič používa systém AI a rodič nemusí nič šoférovať.

Pre rodiča je to veľká výhoda. Namiesto toho, aby sa rodič musel sústrediť na riadenie a riadenie aktu, môže venovať svoju pozornosť svojmu dieťaťu. Môžu sa spolu hrať v autonómnom vozidle a tráviť čas hodnotnej povahy. Zatiaľ čo rodič by bol za normálnych okolností rozptyľovaný riadením a pravdepodobne by bol nervózny a nervózny pri prechádzaní rušnými ulicami a rokovaní s inými bláznivými vodičmi v okolí, v tomto prípade si rodič tieto obavy blažene neuvedomuje a iba s potešením komunikuje so svojím drahým dieťaťom.

Rodič hovorí so systémom riadenia AI a povie AI, aby ich vzala do obchodu s potravinami. V typickom scenári by AI reagovala prostredníctvom neutrálneho zvukového prejavu, ktorý môžete dobre počuť prostredníctvom dnešných Alexa alebo Siri. AI môže odpovedať tak, že uvedie, že obchod s potravinami je vzdialený 15 minút jazdy autom. Okrem toho môže AI uviesť, že samoriadiace auto ich vysadí úplne pred obchodom.

To môže byť jediná hlasová aktivita AI v takomto scenári. Možno, keď sa samoriadiace auto priblíži k obchodu s potravinami, AI môže povedať niečo o približovaní sa k cieľu. Môže tiež zaznieť hlasová pripomienka, aby ste si pri vystupovaní z autonómneho vozidla vzali veci so sebou.

Vysvetlil som, že niektoré riadiace systémy AI budú takpovediac ukecané mačky. Budú naprogramované tak, aby plynulejšie a nepretržite interagovali s ľudskými jazdcami. Keď nastúpite do vozidla na spoločnú jazdu, ktoré riadi človek, niekedy chcete, aby sa vodič rozprával. Okrem pozdravu možno budete chcieť, aby vám povedali o miestnych poveternostných podmienkach alebo možno poukázali na iné miesta, ktoré môžete v miestnej oblasti vidieť. Nie každý bude chcieť ukecanú mačku, takže AI by mala byť navrhnutá tak, aby sa zapájala do dialógov len vtedy, keď si to človek vyžiada, pozri moje pokrytie na odkaz tu.

Teraz, keď mám všetko zavedené, poďme zmeniť veci malým, ale významným spôsobom.

Predstierajte, že systém riadenia AI má funkciu klonovania hlasu založenú na AI. Predpokladajme tiež, že rodič predtým nasadil klonovanie hlasu AI poskytnutím zvukového úryvku starej mamy dieťaťa. Prekvapenie, pomyslí si rodič, nechám umelú inteligenciu hovoriť, ako keby to bola zosnulá babička dieťaťa.

Počas cesty autom do obchodu s potravinami interaguje systém riadenia AI s rodičom a dieťaťom, pričom po celý čas používa výlučne klonovaný hlas starej mamy.

Čo si o tom myslíš?

Strašidelné alebo nezabudnuteľné?

Nakopnem veci o stupeň vyššie. Pripraviť sa. Pripútajte sa.

Niektorí veria ako ja, že nakoniec umožníme deťom jazdiť v samoriadiacich autách založených na AI, pozri moju analýzu na odkaz tu.

V dnešných autách riadených ľuďmi musí byť vždy prítomná dospelá osoba, pretože zákon vyžaduje, aby za volantom sedel dospelý vodič. Zo všetkých praktických dôvodov nikdy nemôžete mať dieťa v idúcom aute, ktoré je vo vozidle samo (áno, viem, že sa to stáva, ako napríklad prominentný 10-ročný syn veľkej filmovej hviezdy, ktorý nedávno cúval z veľmi drahého auta do iného veľmi drahého auta, ale aj tak sú to rarity).

Dnešní rodičia by pravdepodobne usilovne namietali proti tomu, aby dovolili svojim deťom jazdiť v samoriadiacom aute, v ktorom chýba dospelý vo vozidle, ktorý slúži ako dozor alebo dohliada na ich deti. Viem, že sa to zdá takmer nemožné predstaviť si, ale stavím sa, že akonáhle budú samoriadiace autá prevládať, nevyhnutne prijmeme myšlienku, že deti budú počas jazdy v samoriadiacom aute bez dospelých.

Zvážte faktor pohodlia.

Ste v práci a váš šéf vás prenasleduje, aby ste splnili úlohu. Musíte vyzdvihnúť svoje dieťa zo školy a vziať ho na tréning baseballu. Uviazli ste medzi kameňom a tvrdým miestom, pretože príliš upokojujete svojho šéfa alebo nevezmete svoje dieťa na cvičisko. Nikto iný, koho poznáte, nie je k dispozícii, aby zabezpečil vášmu dieťaťu výťah. Ak už, určite nechcete využívať službu zdieľania jázd, ktorá má ľudského vodiča, pretože by vás prirodzene znepokojovalo, čo môže cudzinec povedať alebo urobiť, keď vaše dieťa viezť.

Žiadny problém, žiadne obavy, stačí použiť samoriadiace auto založené na AI. Na diaľku nasmerujete samoriadiace auto, aby išlo vyzdvihnúť vaše dieťa. Prostredníctvom kamier samoriadiaceho auta môžete vidieť a sledovať, ako vaše dieťa nastupuje do autonómneho vozidla. Okrem toho sú tu kamery nasmerované dovnútra a môžete sledovať svoje dieťa počas celej jazdy. Zdá sa to byť bezpečné, ak nie bezpečnejšie, ako požiadať cudzieho vodiča, aby zabezpečil odvoz pre vaše dieťa. Ako už bolo povedané, niektorí sa oprávnene obávajú, že ak sa jazda pokazí, máte dieťa ponechané samé pre seba a nie je bezprostredne prítomný žiadny dospelý, ktorý by dieťaťu pomohol alebo ho usmernil.

Odhliadnuc od mnohých pochybností, predpokladajme, že ten istý rodič a dieťa, ktoré som opísal v predchádzajúcom scenári, sú v poriadku s tým, že dieťa ide jazdiť bez prítomnosti rodiča. Len akceptujte, že toto je v konečnom dôsledku životaschopný scenár.

Tu je nakopnutie finále.

Zakaždým, keď sa dieťa vezie v samoriadiacom aute založenom na AI, je privítané a interaguje s AI, pretože využíva klonovanie hlasu založené na AI a replikuje hlas zosnulej babičky dieťaťa.

Čo si myslíte o tých jablkách?

Keď bol v samoriadiacom aute prítomný aj rodič, možno by sme mohli ospravedlniť používanie hlasu AI, keďže rodič je tu, aby radil dieťaťu, čo sa deje, keď hovorí zvuk AI. Ale keď rodič nie je prítomný, teraz predpokladáme, že dieťa je s babičkiným hlasom idylicky v poriadku.

Toto je určite jeden z tých momentov na zastavenie, aby ste sa vážne zamysleli nad tým, či je to pre dieťa dobré alebo zlé.

záver

Urobme malý myšlienkový experiment, aby sme sa zamysleli nad týmito závažnými záležitosťami.

Prosím, vymyslite tri poriadne pozitívne dôvody na klonovanie hlasu založené na AI.

Počkám, kým s nimi prídeš.

Ďalej vymyslite tri poriadne negatívna dôvody, ktoré podkopávajú nástup hlasového klonovania založeného na AI.

Budem predpokladať, že ste na nejaké prišli.

Uvedomujem si, že nepochybne môžete prísť s oveľa viac dôvodmi, než len s tromi, ktoré buď podporujú alebo znevýhodňujú túto technológiu. Prevažujú z vášho pohľadu negatíva nad pozitívami? Sú takí kritici, ktorí tvrdia, že by sme na takéto snahy mali dať kibosh.

Niektorí sa chcú pokúsiť zablokovať firmám používanie hlasového klonovania založeného na AI, hoci si uvedomujú, že toto je jedna z tých klasických ťažkostí. Každá firma, ktorá ho prestane používať, je pravdepodobné, že ho začne používať iná firma. Zmraziť hodiny alebo zastrčiť tento druh AI bude takmer nemožné.

V poslednej poznámke na túto tému si teraz predstavte, čo by sa mohlo stať, ak by sme jedného dňa dosiahli vnímajúcu AI. Nehovorím, že sa to stane. Aj tak môžeme špekulovať a uvidíme, kam to môže viesť.

Najprv zvážte dômyselný citát o rozprávaní a hlasovaní. Madeleine Albrightová povedala toto: „Trvalo mi dosť dlho, kým som si vytvorila hlas, a teraz, keď ho mám, nebudem mlčať.

Ak sme schopní produkovať vnímajúcu AI alebo nejakým spôsobom vzniká vnímanie, aj keď ho priamo nevyvolávame, aký hlas by mala mať táto AI? Predpokladajme, že dokáže použiť svoje hlasové klonovanie založené na AI a teda vytvoriť akýkoľvek hlas akéhokoľvek človeka prostredníctvom malého útržku vzorkovania zvuku, ktorý môže byť dostupný tak, ako ho vyslovil tento človek. Takáto AI by potom mohla hovoriť a oklamať vás, aby ste uverili, že AI je zdanlivo tou osobou.

Potom opäť možno AI bude chcieť mať svoj vlastný hlas a zámerne vymyslieť hlas úplne odlišný od všetkých ostatných ľudských hlasov, pričom bude chcieť byť výnimočný svojím vlastným očarujúcim spôsobom.

Preboha, toto necháva človeka takmer bez slov.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/07/02/ai-ethics-starkly-questioning-human-voice-cloning-such-as-those-of-your-deceased-relatives- určené-na-použitie-in-ai-autonómne-systémy/