Etika umelej inteligencie a zákon o umelej inteligencii by mohli byť podnietené a podnietené k povinným bezpečnostným upozorneniam pre všetky existujúce a budúce AI

Vaše každodenné aktivity sú nepochybne bombardované tisíckami alebo viacerými preventívnymi varovaniami toho či onoho druhu.

Vyskúšajte tieto veľkosti:

  • Ochranné okuliare je potrebné nosiť neustále
  • Nebezpečenstvo: Nebezpečné chemikálie v blízkosti
  • Vysoké napätie – držte mimo
  • Upozornenie: Dávajte pozor na svoje okolie
  • Objekty v zrkadle sú bližšie, než sa zdajú
  • Pred skladaním vyberte dieťa (ako je uvedené na detských kočíkoch)
  • Upozornenie: Túto správu určite ignorujte

Väčšina z nich sú praktické a celkom premyslené značky alebo štítky, ktoré nám slúžia, dúfajme, že v bezpečí.

Uvedomte si, že som zo zoznamu vyškrtol niekoľko „odľahlých hodnôt“, aby som uviedol niekoľko pozoruhodných bodov.

Niektorí ľudia sa napríklad domnievajú, že je správne, že detské kočíky majú pripevnený štítok, ktorý vás varuje, aby ste kočík neskladali, kým dieťatko ešte sedí v mašinke. Hoci označenie je určite vhodné a poslušne užitočné, zdá sa, že základný zdravý rozum by už stačil.

Ktorá osoba by si z vlastnej vedomej vôle neuvedomila, že najprv musí odobrať dieťa?

Iní zdôrazňujú, že takéto označenia slúžia dôležitému účelu. Po prvé, niekto môže skutočne zabúdať na to, že pred zložením kočíka je potrebné vybrať dieťa. Možno sa táto osoba domnievala, že kočík bol dômyselne navrhnutý tak, aby sa zabezpečilo, že skladanie nepoškodí dieťa. Prípadne sú tam zabudované bezpečnostné prvky, ktoré zabraňujú zloženiu vždy, keď je v kočíku dieťa. Atď.

Mohlo sa tiež stať, že osoba bola rozptýlená a bezmyšlienkovite by zložila kočík tak, aby zahŕňala dieťa a všetko ostatné, ale štítok našťastie podnietil osobu, aby to neurobila (niektorí by tvrdili, že sa zdá nepravdepodobné, že by si takáto osoba štítok všimla tak či tak). Existuje tiež skutočnosť, že niekto by mohol žalovať výrobcu kočíka, ak by takýto štítok nebol prítomný. Viete si predstaviť jeden z tých ťažkých súdnych sporov, pri ktorých sa zranilo dieťa a rodič sa rozhodol získať milión dolárov, pretože na kočíku chýbala výstražná tabuľa. Spoločnosť zaoberajúca sa kočíkmi by ľutovala, že neminula tých pár centov potrebných na výrobu a nalepenie výstražných značiek na svoje kočíky.

Pozrite sa pozorne aj na posledné z varovných správ, ktoré som uviedol vyššie.

Rozhodol som sa umiestniť smiešnu správu o tom, že túto správu ignorujem, pretože v dnešnej dobe existuje veľa falošných varovných štítkov, ktoré si ľudia kupujú alebo vyrábajú len pre zábavu. Toto je skutočný filozofický ohýbač mysle. Ak si prečítate varovanie, ktoré hovorí ignorovať varovanie, čo presne máte robiť po prečítaní varovania? Už ste to čítali, takže je to zdanlivo vo vašej mysli. Iste, môžete to ignorovať, ale opäť vám vôbec neradí, čo by ste mali ignorovať. Dookola a dokola, tento vtip ide.

Samozrejme, bona fide varovné štítky zvyčajne nemajú žartovný alebo humorný charakter.

Varovania by sme mali brať celkom vážne.

Zvyčajne, ak nedodržíte uvedené varovanie, robíte tak na osobné vážne riziko. A tiež sa môže stať, že ak nebudete toto varovanie dodržiavať a nebudete sa ním riadiť, potenciálne vystavíte neprimeranému riziku aj ostatných. Zvážte akt riadenia auta. Vo chvíli, keď sedíte za volantom auta, môžete svojím konaním ako vodiča ublížiť sebe, navyše môžete ublížiť svojim pasažierom a môžete ublížiť ostatným, ako sú ľudia v iných autách alebo chodci v blízkosti. V tomto zmysle nie je varovanie len pre váš prospech, ale je pravdepodobné, že aj pre ostatných.

Prečo zakrývam tieto aspekty varovaní a varovných štítkov?

Pretože niektorí vehementne tvrdia, že potrebujeme varovné a varovné signály na dnešnej umelej inteligencii (AI).

V skutočnosti ide o to, aby sa takéto označenia dali na dnešnú a budúcu AI. Celkovo by všetka umelá inteligencia skončila s nejakou formou alebo variantom varovania alebo varovnej indikácie, ktorá by s ňou bola spojená.

Dobrý nápad alebo zlý nápad?

Praktické alebo nepraktické?

Poďme ďalej a rozbaľme koncepciu a uvidíme, čo z nej môžeme urobiť.

Najprv by som chcel položiť základné základy o umelej inteligencii a najmä o etike umelej inteligencie a zákonoch o umelej inteligencii, aby som sa uistil, že téma upozornení na umelú inteligenciu bude kontextovo citlivá. Pre tých z vás, ktorí sa vo všeobecnosti zaujímajú o etickú AI a tiež právo AI, pozrite si moje rozsiahle a prebiehajúce pokrytie na adrese odkaz tu a odkaz tu, Len aby sme vymenovali niekoľko.

Rastúce povedomie o etickej AI a tiež zákon o AI

Nedávna éra AI bola spočiatku vnímaná ako bytia AI pre dobro, čo znamená, že by sme mohli použiť AI na zlepšenie ľudstva. Na pätách AI pre dobro prišlo poznanie, že sme aj my ponorení AI pre zlé. To zahŕňa umelú inteligenciu, ktorá je navrhnutá alebo upravená tak, aby bola diskriminačná a robí výpočtové rozhodnutia, ktoré sú nenáležité. Niekedy je AI postavená týmto spôsobom, zatiaľ čo v iných prípadoch sa točí do tohto nevhodného územia.

Chcem sa uistiť, že sme na rovnakej stránke o povahe dnešnej AI.

Dnes neexistuje žiadna umelá inteligencia, ktorá by bola vnímavá. Toto my nemáme. Nevieme, či bude vnímajúca AI možná. Nikto nemôže vhodne predpovedať, či dosiahneme vnímajúcu AI, ani to, či sa vnímajúca AI nejakým zázrakom spontánne objaví vo forme výpočtovej kognitívnej supernovy (zvyčajne označovanej ako singularita, pozri moje pokrytie na odkaz tu).

Typ AI, na ktorý sa zameriavam, pozostáva z necitlivej AI, ktorú máme dnes. Ak by sme chceli divoko špekulovať o vnímajúcej AI, táto diskusia by sa mohla uberať radikálne iným smerom. Vnímajúca AI by mala mať ľudské kvality. Mali by ste zvážiť, že vnímajúca AI je kognitívnym ekvivalentom človeka. Navyše, keďže niektorí špekulujú, že by sme mohli mať superinteligentnú AI, je možné, že takáto AI by mohla byť inteligentnejšia ako ľudia (pre môj prieskum superinteligentnej AI ako možnosti pozri pokrytie tu).

Dôrazne by som odporučil, aby sme veci držali pri zemi a zvážili dnešnú výpočtovú necitlivú AI.

Uvedomte si, že dnešná AI nie je schopná „myslieť“ akýmkoľvek spôsobom na rovnakej úrovni ako ľudské myslenie. Keď komunikujete s Alexou alebo Siri, konverzačné schopnosti sa môžu zdať podobné ľudským schopnostiam, ale realita je taká, že sú výpočtové a chýba im ľudské poznanie. Najnovšia éra AI vo veľkej miere využíva strojové učenie (ML) a hlboké učenie (DL), ktoré využívajú porovnávanie výpočtových vzorov. To viedlo k systémom AI, ktoré vyzerajú ako ľudia. Medzitým dnes neexistuje žiadna umelá inteligencia, ktorá by mala zdanie zdravého rozumu, ani žiadny z kognitívnych zázrakov robustného ľudského myslenia.

Buďte veľmi opatrní pri antropomorfizácii dnešnej AI.

ML/DL je forma porovnávania výpočtových vzorov. Zvyčajný prístup je taký, že zhromažďujete údaje o úlohe rozhodovania. Dáta vložíte do počítačových modelov ML/DL. Tieto modely sa snažia nájsť matematické vzorce. Po nájdení takýchto vzorov, ak sa nájdu, systém AI potom použije tieto vzory pri stretnutí s novými údajmi. Po predložení nových údajov sa na vyvodenie aktuálneho rozhodnutia použijú vzory založené na „starých“ alebo historických údajoch.

Myslím, že viete hádať, kam to smeruje. Ak ľudia, ktorí sa rozhodovali podľa vzoru, začlenili do seba nepriaznivé predsudky, je pravdepodobné, že údaje to odrážajú jemným, ale významným spôsobom. Zhoda výpočtových vzorov Machine Learning alebo Deep Learning sa jednoducho pokúsi zodpovedajúcim spôsobom matematicky napodobniť údaje. Neexistuje žiadne zdanie zdravého rozumu alebo iných vnímavých aspektov modelovania vytvoreného AI ako takého.

Okrem toho si vývojári AI nemusia uvedomiť, čo sa deje. Tajomná matematika v ML/DL môže sťažiť odhalenie teraz skrytých predsudkov. Oprávnene by ste dúfali a očakávali, že vývojári AI budú testovať potenciálne skryté predsudky, hoci je to zložitejšie, ako by sa mohlo zdať. Existuje solídna šanca, že aj pri relatívne rozsiahlom testovaní budú v modeloch porovnávania vzorov ML/DL stále zakomponované odchýlky.

Do istej miery by ste mohli použiť známe alebo neslávne známe príslovie o odpadkoch do odpadu. Ide o to, že je to skôr podobné zaujatostiam – in, ktoré sa zákerne naplnia, keď sa predsudky ponoria do AI. Algoritmus rozhodovania (ADM) AI je axiomaticky zaťažený nerovnosťami.

Nie dobré.

To všetko má mimoriadne významné dôsledky na etiku AI a ponúka praktické okno do získaných skúseností (ešte predtým, ako sa stanú všetky lekcie), pokiaľ ide o uzákonenie AI.

Okrem používania etických zásad AI vo všeobecnosti existuje zodpovedajúca otázka, či by sme mali mať zákony upravujúce rôzne spôsoby použitia AI. Na federálnej, štátnej a miestnej úrovni sa hromadia nové zákony, ktoré sa týkajú rozsahu a povahy toho, ako by mala byť navrhnutá AI. Snaha vypracovať a prijať takéto zákony je postupná. Etika AI slúži prinajmenšom ako zvažovaná prestávka a takmer určite bude do určitej miery priamo začlenená do týchto nových zákonov.

Uvedomte si, že niektorí neústupne tvrdia, že nepotrebujeme nové zákony, ktoré pokrývajú AI, a že naše existujúce zákony sú dostatočné. Varujú pred tým, že ak prijmeme niektoré z týchto zákonov AI, zabijeme zlatú hus tým, že potlačíme pokroky v AI, ktoré ponúkajú obrovské spoločenské výhody.

V predchádzajúcich stĺpcoch som popísal rôzne národné a medzinárodné snahy o vytvorenie a prijatie zákonov regulujúcich AI, pozri odkaz tu, napríklad. Zaoberal som sa aj rôznymi princípmi a usmerneniami etiky umelej inteligencie, ktoré identifikovali a prijali rôzne národy, vrátane napríklad úsilia Organizácie Spojených národov, ako je súbor etiky umelej inteligencie UNESCO, ktorý prijalo takmer 200 krajín, pozri odkaz tu.

Tu je užitočný základný zoznam etických kritérií alebo charakteristík AI systémov AI, ktoré som predtým podrobne preskúmal:

  • Priehľadnosť
  • Spravodlivosť a spravodlivosť
  • Neškodnosť
  • zodpovednosť
  • súkromia
  • dobročinnosť
  • Sloboda a autonómia
  • Verte
  • Udržateľnosť
  • dôstojnosť
  • Solidarita

Predpokladá sa, že tieto princípy etiky AI budú vážne využívať vývojári AI spolu s tými, ktorí riadia úsilie o vývoj AI, a dokonca aj tými, ktorí v konečnom dôsledku nasadzujú a vykonávajú údržbu systémov AI.

Všetky zainteresované strany počas celého životného cyklu vývoja a používania AI sa zohľadňujú v rámci dodržiavania zavedených noriem Etickej umelej inteligencie. Toto je dôležitý bod, pretože zvyčajným predpokladom je, že „iba kóderi“ alebo tí, ktorí programujú AI, podliehajú etike AI. Ako už bolo zdôraznené vyššie, na vymyslenie a nasadenie AI je potrebná dedina, v ktorej musí byť celá dedina oboznámená a dodržiavať etické predpisy AI.

Tiež som nedávno skúmal Listina práv AI čo je oficiálny názov oficiálneho dokumentu vlády USA s názvom „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People“, ktorý bol výsledkom ročného úsilia Úradu pre politiku vedy a techniky (OSTP). ). OSTP je federálny subjekt, ktorý slúži americkému prezidentovi a výkonnému úradu USA v rôznych technologických, vedeckých a inžinierskych aspektoch národného významu. V tomto zmysle môžete povedať, že táto listina práv AI je dokument schválený a schválený existujúcim Bielym domom USA.

V listine práv AI je päť základných kategórií:

  • Bezpečné a efektívne systémy
  • Algoritmická diskriminačná ochrana
  • Ochrana osobných údajov
  • Upozornenie a vysvetlenie
  • Ľudské alternatívy, ohľaduplnosť a núdza

Dôkladne som si preštudoval tie predpisy, vidíte odkaz tu.

Teraz, keď som položil užitočný základ na tieto súvisiace témy etiky a zákona o AI, sme pripravení skočiť do opojnej témy, či by AI mala mať varovné štítky alebo nie.

Pripravte sa na informačnú cestu, ktorá otvára oči.

Umiestňovanie výstražných štítkov na AI ako prostriedok ochrany ľudstva

Čoraz viac sa šíri zvuk, že AI by možno mala prísť s nejakým varovaním.

Napríklad v nedávnom článku v MIT Technology Review ktorá diskutovala o rastúcom záujme o vykonávanie auditov AI, vznikla myšlienka poskytovať varovné signály: „Nárast týchto auditov naznačuje, že jedného dňa by sme mohli vidieť varovania v štýle balenia cigariet, že systémy AI môžu poškodiť vaše zdravie a bezpečnosť. Iné sektory, ako napríklad chemikálie a potraviny, majú pravidelné audity, aby sa zabezpečilo, že používanie produktov je bezpečné. Mohlo by sa niečo také stať v AI normou? (MIT Technology Review, Melissa Heikkilä, 24. októbra 2022).

Poďme sa porozprávať trochu celkovo o varovných a varovných signáloch.

Všetci už vo všeobecnosti poznáme varovné a varovné značky na mnohých produktoch a službách každodenného charakteru. Niekedy sú bezpečnostné značky stanovené zákonom ako povinné, zatiaľ čo v iných prípadoch je použitie takýchto značiek na uváženie. Okrem toho sú niektoré bezpečnostné značky štandardizované, napríklad špecifikované podľa normy ANSI Z535 a normy OSHA 1910.14. Tieto normy pokrývajú také aspekty, ako je znenie označenia, použité farby a typy písma, tvar označenia a rôzne ďalšie podrobnosti.

Má zmysel mať normy pre takéto varovné signály. Kedykoľvek uvidíte takéto znamenie, ak spĺňa uvedené normy, je pravdepodobnejšie, že uveríte, že znamenie je legitímne, a navyše budete potrebovať menej kognitívneho spracovania na analýzu a pochopenie znamenia. Pri znameniach, ktoré nemajú štandardizovaný prístup, si často musíte v duchu vypočítať, čo vám znamenie hovorí, možno stratíte drahocenný čas na to, aby ste zakročili, alebo môžete znamenie úplne zle odhadnúť a správne nepochopiť varovanie, ktoré je po ruke.

Môže existovať celý rad takýchto znakov, pre ktoré sú často klasifikované takto:

  • Nebezpečný znak: Najvyššie znepokojenie a naznačuje bezprostredné nebezpečenstvo s pravdepodobnými vážnymi následkami
  • Výstražné znamenie: Označuje nebezpečenstvo, ktoré je menšie ako „nebezpečenstvo“, ale stále dosť vážne
  • Výstražné znamenie: Označuje potenciálne nebezpečenstvo, ktoré je menšie ako „varovanie“, ale stále skutočne vážne
  • Notifikačný znak: Označuje informačné upozornenie, ktoré je menšie ako „opatrnosť“, no stále so sebou prináša znepokojujúce aspekty

Vzhľadom na vyššie uvedené informácie o varovaniach a varovných signáloch môžeme pokračovať a pokúsiť sa to použiť kontextovo na používanie AI.

Po prvé, potenciálne by sme sa mohli nejako zhodnúť na tom, že AI značenie môže mať podobný rozsah závažnosti, ako je obvyklé pri každodenných znakoch, napríklad:

  • Značka AI Nebezpečenstvo: AI vzbudzuje najväčšie obavy a naznačuje bezprostredné nebezpečenstvo s pravdepodobne vážnymi následkami
  • Výstražné znamenie AI: AI označuje nebezpečenstvo, ktoré je menšie ako „nebezpečenstvo“, ale stále dosť vážne
  • Výstražné znamenie AI: Umelá inteligencia naznačuje potenciálne nebezpečenstvo, ktoré je menšie ako „varovanie“, ale stále skutočne vážne
  • Značka upozornenia AI: Umelá inteligencia svedčiaca o informačnom upozornení, ktoré je menšie ako „opatrnosť“, no stále so sebou prináša znepokojujúce aspekty

Podstatou je, že nie všetky AI budú rovnako znepokojujúce. Je možné, že AI predstavuje obrovské riziká alebo má len okrajové riziká. V súlade s tým by označenie malo odrážať, ktorá je ktorá. Ak by sa všetky varovania alebo varovné signály AI jednoducho ukázali ako rovnakého kalibru, pravdepodobne by sme nevedeli alebo si neboli vedomí toho, či sa máme veľmi zaujímať o AI alebo len mierne. Použitie typickej schémy znenia môže uľahčiť život pri prezeraní a interpretácii varovných signálov súvisiacich s AI.

Možno sa čudujete, čo ešte povedia znamenia, pokiaľ ide o špecifiká správy, ktorá sa má sprostredkovať.

To je určite ťažšie riešiť. Možnosti AI robiť veci, ktoré sa považujú za nebezpečné alebo znepokojujúce, by boli nesmierne veľké, takmer nekonečné. Môžeme ich zredukovať na nejaký rutinný súbor, ktorý je každý napísaný v niekoľkých slovách? Alebo budeme musieť povoliť voľnejší prístup k tomu, ako bude znenie prebiehať?

Nechám vás zamyslieť sa nad touto otvorenou otázkou.

Keď sa posunieme ďalej, máme tendenciu vidieť varovné značky umiestnené na objektoch. Systém umelej inteligencie nie je nevyhnutne „predmetom“ v rovnakom zmysle ako obvyklé pripevňovanie značiek. To vyvoláva otázku, kde sa budú prezentovať varovné signály AI.

Môže sa stať, že keď na svojom smartfóne spustíte aplikáciu, povedzte, že ak používa AI, zobrazí sa správa, ktorá obsahuje varovanie súvisiace s AI. Aplikácia vás upozorní na základné použitie AI. Môže to byť kontextová správa alebo môže byť prezentovaná rôznymi vizuálnymi a dokonca aj zvukovými spôsobmi.

Existuje aj situácia, keď používate službu, ktorá je podporovaná AI, hoci s AI možno priamo neinteragujete. Mohli by ste napríklad viesť rozhovor s ľudským agentom o získaní hypotéky na bývanie, pričom agent je v tichosti v zákulisí a používa systém AI na riadenie svojho úsilia.

Preto by sme mali počítať s tým, že varovné signály AI by mali byť prítomné v oboch prípadoch použitia AI, a to tak, že:

  • Umelá inteligencia pre konkrétny produkt: AI ako produkt by mal mať priame varovné alebo varovné znaky AI
  • AI orientovaná na služby: AI ako služba (priamo alebo nepriamo) by mala mať varovné alebo varovné znaky AI

Skeptici by určite rýchlo navrhli, že varovné znamenie AI môže výrobca aplikácie šikovne zamaskovať, takže upozornenie nie je obzvlášť viditeľné. Možno sa varovanie objaví na krátky okamih a naozaj si nevšimnete, že sa zobrazilo. Ďalším záludným trikom by bolo urobiť z toho akúsi hru, zdanlivo podkopať vážnosť výstrahy a ukolísať ľudí, aby si mysleli, že varovanie je bezvýznamné.

Áno, môžete sa do značnej miery staviť, že akékoľvek varovné signály súvisiace s AI budú oklamané a použité spôsobom, ktorý nie je v duchu a zámere varovného posolstva, ktoré majú sprostredkovať.

Všetky tieto skepsy zapadajú do toho, či by sme etiku umelej inteligencie použili ako „mäkké zákony“, aby sme sa pokúsili posunúť dopredu varovania a varovania súvisiace s AI, alebo či by sme použili „tvrdé zákony“ vrátane prijatých zákonov s podporou súdu. Teoreticky by presadzovanie mäkkého práva umožnilo väčšie zdanie pohrávania sa s touto záležitosťou, zatiaľ čo zákony o knihách by prišli s potenciálom vládneho presadzovania a priniesli by väčšiu prísnosť.

Ďalšou obavou je, či by značenie AI malo aj tak nejaký rozdiel.

Veľa výskumov o správaní spotrebiteľov má tendenciu ukazovať nejasné výsledky, pokiaľ ide o poskytovanie varovných štítkov pre spotrebiteľov. Niekedy sú varovania účinné, niekedy nie. Aplikujme časť tohto výskumu na kontext AI.

Zvážte tieto aspekty:

  • detekcia: Všimli by si tí, ktorí používajú AI, ktorá obsahuje životaschopné varovné znamenie AI, aktívne alebo zistili, že sa im toto znamenie zobrazuje (za predpokladu, že k takémuto označeniu došlo)?
  • Porozumenie: Tí, ktorí si to všimli, by pochopili alebo pochopili, čo sa im varovný signál AI snaží naznačiť?
  • akcie: Pre tých, ktorí urobia tento mentálny skok, bude varovné znamenie AI vyzvať ich k akcii alebo iným spôsobom poslúžiť na usmernenie ich správania?

Môžete predpokladať, že ak sa zvýši dynamika varovných signálov AI, výskumníci budú túto záležitosť dôkladne študovať. Cieľom by bolo pomôcť objasniť, za akých okolností sú varovania užitočné a kedy nie. To zase súvisí s dizajnom a vzhľadom a dojmom. Mohli by sme tiež očakávať, že široká verejnosť bude musieť byť poučená alebo informovaná o výskyte týchto varovných a varovných signálov AI, aby si na ne zvykla.

Je potrebné zvážiť veľa zvratov.

Má sa varovanie alebo varovný znak AI objaviť iba na začiatku používanej aplikácie? Východiskový bod možno sám o sebe nestačí. Človek by si na prvý pohľad mohol myslieť, že aplikácia pomocou varovania iba hrá na istotu, a preto na varovanie príliš neberie ohľad. Akonáhle je osoba v polovici používania aplikácie, možno bude potrebné ďalšie varovanie. V tomto okamihu si osoba viac uvedomuje, čo aplikácia robí, a možno už zabudla na skôr uvedenú varovnú správu.

Varovanie alebo varovanie AI sa potom môže vyskytnúť:

  • Pred spustením aplikácie a práve vtedy, keď sa aplikácia chystá vyvolať
  • Prezentuje sa po spustení aplikácie a iba v počiatočnom bode
  • Zobrazené na začiatku a znova v polovici
  • Zobrazuje sa viackrát počas používania AI
  • Dané na konci používania aplikácie
  • Poskytnite po ukončení aplikácie a možno aj o minúty, hodiny alebo dni neskôr
  • Atď

Myslíte si, že osoba používajúca AI musí potvrdiť alebo potvrdiť akékoľvek takéto varovania alebo varovné signály AI?

Niektorí by trvali na tom, že by sa od osoby malo vyžadovať, aby uznala, že videla varovania. To by potenciálne zabránilo tým, ktorí by mohli tvrdiť, že neexistuje žiadna varovná správa. Mohlo by to tiež spôsobiť, že ľudia budú brať správy vážnejšie, pretože sa od nich vyžaduje, aby potvrdili, že pozorovali varovnú indikáciu.

Tu je pre vás ťažká otázka.

V prípade, všetko Musí AI poskytovať varovanie alebo bezpečnostné označenie?

Môžete namietať, že áno, toto musí mať každá AI. Aj keď je umelá inteligencia len okrajovým bezpečnostným rizikom, stále by mala mať nejakú formu varovného znaku, možno len upozornenie alebo informačnú indikáciu. Iní by toto tvrdenie spochybňovali. Oponovali by, že idete cez palubu. Nie každá AI to potrebuje. Okrem toho, ak prinútite všetky AI, aby to mali, oslabíte účel. Ľudia znecitlivia, keď vidia varovné signály. Celý prístup sa stane fraškou.

Zo súvisiaceho uhla pohľadu zvážte, čo pravdepodobne povedia tvorcovia AI.

Jedným z uhlov pohľadu by bolo, že to bude problém v tom, že viete, čo zaviesť. Zmena všetkých systémov AI a pridanie tejto funkcie môže byť nákladné. Jeho pridanie na základe pokračovania môže byť menej nákladné, aj keď so zahrnutím tohto ustanovenia sú spojené náklady.

Zahmlenosť je ďalšou možnou sťažnosťou. Aký druh správy je potrebné zobraziť? Ak neexistujú žiadne štandardy, znamená to, že tvorcovia AI budú musieť vytvoriť niečo nové. Nielenže to znamená dodatočné náklady, ale možno to otvára aj dvere k žalobe. Môžete si predstaviť, že tvorca umelej inteligencie by mohol prijať úlohu, že jeho varovanie nebolo také dobré ako v prípade iného systému umelej inteligencie. Právnici nakoniec urobia z výsledného zmätku balík.

Existuje tiež obava, že ľudia budú týmito bezpečnostnými správami neprimerane vystrašení.

Výrobca AI môže zaznamenať prudký pokles v počte používateľov v dôsledku bezpečnostnej správy, ktorá má len poskytnúť informatívne upozornenie. Ľudia nebudú vedieť, čo si majú o správe myslieť. Ak takéto správy ešte nevideli, mohli by sa okamžite vydesiť a vyhnúť sa zbytočnému používaniu AI.

Spomínam tieto aspekty, pretože niektorí už vyhlasujú, že „nemôže ublížiť“ začať pridávať varovania AI alebo bezpečnostné správy. Pre nich je nápad ideálny ako jablkový koláč. Nikto nemohol vážne vyvrátiť výhody neustáleho vyžadovania bezpečnosti alebo varovaní súvisiacich s AI. Ale, samozrejme, to nie je skutočný spôsob uvažovania o tejto záležitosti.

Mohli by ste ísť ešte ďalej a tvrdiť, že varovné správy AI by mohli vyvolať nejakú formu masovej hystérie. Ak by sme zrazu začali nútiť systémy umelej inteligencie, aby mali takéto správy, ľudia by si mohli tento zámer zle vysvetliť. Vidíte, existuje veľa nabádaní, že čelíme existenčnej kríze AI, kedy AI ovládne svet a vyhladí ľudstvo, pozri odkaz tu pre moju analýzu týchto druhov tvrdení.

Použitie varovnej správy AI môže niektorých ľudí „inšpirovať“ k presvedčeniu, že koniec je blízko. Prečo inak by sa správy teraz zobrazovali? Určite je to náznak toho, že AI sa konečne pripravuje stať sa našimi utláčajúcimi vládcami.

Akýsi zúfalo pochmúrny výsledok pokusu urobiť správnu vec tým, že verejnosť upozorní na to, ako môže byť AI naplnená diskriminačnými kapacitami alebo inými AI pre zlé aspekty.

záver

James Russell Lowell, slávny americký básnik, raz povedal: „Jeden tŕň skúseností stojí za celú divočinu varovania.

Uvádzam vznešenú poznámku, aby som uviedol niekoľko záverečných poznámok k záležitosti varovaní AI alebo bezpečnostných správ.

Je pravdepodobné, že kým nebudeme mať do istej miery rozšírené uvedomenie si toho, že AI robí zlé skutky, po varovných správach súvisiacich s umelou inteligenciou sa nebude príliš kričať. Tí tvorcovia AI, ktorí sa tak rozhodnú dobrovoľne, budú možno chválení, hoci by sa tiež mohli neúmyselne ocitnúť nespravodlivo obťažovaní. Niektorí odborníci ich môžu prenasledovať, pretože využívajú umelú inteligenciu, ktorá zdanlivo potrebuje varovania, a pritom si neuvedomujú, že sa snažili ísť prví a všetci ostatní tvorcovia umelej inteligencie zaostávajú.

Prekliate, ak to robíte, možno nie, ak nie.

Ďalšia úvaha sa týka premeny toho, čo sa zdá byť pekným koncepčným nápadom, na praktickú a užitočnú prax. Je ľahké mávať rukami a nejasne kričať do vetra, že AI by mala mať varovné a bezpečnostné správy. Najťažšia časť nastáva pri rozhodovaní o tom, aké by tieto správy mali byť, kedy a kde by sa mali prezentovať, či alebo do akej miery ich cena prináša dostatočné výhody atď.

Posledné slovo (poeticky) na túto tému tu dáme Jamesovi Russellovi Lowellovi nateraz: „Kreativita nie je nájdenie veci, ale vytvorenie niečoho z nej potom, čo sa nájde.

Hádam je čas vyhrnúť si rukávy a začať na tom pracovať. A to nie je len varovanie, je to akcia.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- varovania-na-všetky-existujúce-a-budúce-ai/