Etika AI a psychologické očkovanie vyvolané AI na pomoc ľuďom s dezinformáciami

Čo budeme robiť s obrovským množstvom dezinformácií a dezinformácií?

Všetko je to preukázateľne horšie a horšie, s každým ďalším dňom.

Možno nás môže zachrániť umelá inteligencia (AI). Áno, je to tak, možno by sme boli schopní využiť prospešné využitie AI, aby sme sa vyrovnali s naším neúprosným tsunami dezinformácií a dezinformácií. Možno by bolo rozumné skúsiť to urobiť. Zdá sa, že každá cesta potenciálneho riešenia stojí za to.

Okrem toho by som rád okamžite uznal a poznamenal, že AI to nepochybne bude Tiež byť tiež súčasťou problému. Niet pochýb o tom, že ľudia môžu ľahko využiť AI na generovanie dezinformácií a dezinformácií. Navyše, AI môže byť zákerne použitá na to, aby sa dezinformácie a dezinformácie javili ako úžasne platné a oklamali ľudí, aby uverili, že prezentované informácie sú lákavo presné a faktické. Rozhodne smutná tvár toho, čo AI prináša na stôl. Ku koncu tejto diskusie sa vrátime k tejto negatívnej hádanke.

Nasaďme si zatiaľ naše smajlíky a preskúmajme, ako je AI prospešná pri znižovaní dezinformácií a dezinformácií na kolená. Jedným z dôležitých podtextov bude, že toto všetko zapadá do životne dôležitých prvkov etiky AI. Pokrytie môjho stĺpca o etike umelej inteligencie a etickej umelej inteligencii pokračuje a je rozsiahle, vrátane odkaz tu a odkaz tu, Len aby sme vymenovali niekoľko.

Zvážte tieto základné spôsoby, ktorými môže byť AI obzvlášť užitočným spojencom vo vojne proti dezinformáciám a dezinformáciám:

  • Zastavte sa na začiatku: Umelá inteligencia môže byť použitá na odhalenie a pokus o odstránenie dezinformácií a dezinformácií skôr, ako sa uvoľnia
  • Filtrovať pred zobrazením: Umelá inteligencia môže byť použitá na filtrovanie dezinformácií a dezinformácií, takže sa nemusíte obávať, že ich uvidíte
  • Pripravte sa na imunitu: Umelá inteligencia môže byť použitá na posilnenie vašej pripravenosti a schopnosti bojovať s dezinformáciami a dezinformáciami (známe trochu formálne ako poskytovanie určitého druhu psychologického očkovania)
  • ostatné

Prvá uvedená odrážka znamená snahu zastaviť dezinformácie a dezinformácie v čo najskoršom momente, ešte predtým, ako sa obsah dostane na svet.

Toto je veľmi problematický prístup. Niektorí by hlučne tvrdili, že by to mohol byť pokus Veľkého brata potlačiť slobodu prejavu. Ako ďaleko by táto AI bola schopná zájsť? Mohlo by to ľuďom brániť v slobodnom vyjadrovaní svojich názorov? To by sa mohlo stať strašidelným svahom, keď sa AI nakoniec stane najhoršou nočnou morou zlých výsledkov, ktoré nevinne začali s tými najlepšími úmyslami.

Som si istý, že chápete.

Druhá odrážka je o niečo umiernenejšia a naznačuje, že na filtrovanie obsahu by sme mohli použiť AI.

Možno máte robot na filtrovanie AI, ktorý bude skenovať všetky vaše prichádzajúce dátové kanály z rôznych správ a iných zdrojov. Umelá inteligencia je prispôsobená na zachytenie akýchkoľvek dezinformácií alebo dezinformácií, ktoré vyhovujú vašim osobným kritériám. V takomto scenári teda nejde o cenzúru veľkého brata. Ovládate AI a spôsob, akým vo vašom mene filtruje vašu skutočnú doručenú poštu.

Znie to celkom dobre.

Existuje však niekoľko pozoruhodných obáv.

Napríklad v našich názoroch sme už značne polarizovaní a toto použitie AI môže túto polarizáciu prehĺbiť a stmaviť. Predstavte si, že s touto elegantnou AI, ktorá funguje nepretržite 24 × 7, už nikdy nebudete musieť vidieť ani kúsok informácií, ktoré ste klasifikovali ako potenciálne dezinformácie a dezinformácie. Vaša polarizovaná perspektíva je teraz takmer zaručená, že zostane nedotknutá. Počas celého dňa a vždy, keď sa chcete pozrieť na informácie, ktoré čakajú na vašu pozornosť, sú vždy plne vopred vybraté a nemáte šancu pozrieť sa na takzvané dezinformácie a dezinformácie.

Hovorím, že dezinformácie a dezinformácie môžu byť takzvaný pretože existuje obrovské množstvo kontroverzií o tom, čo vlastne dezinformácie a dezinformácie predstavujú. Niektorí odborníci tvrdia, že existuje absolútny základ na zistenie, čo je dezinformácia a čo je dezinformácia. Existuje správne a nesprávne. Všetko sa dá vypočítať bez toho, aby sme sa mýlili, že niečo je buď dezinformácia alebo dezinformácia.

Nie každý vidí veci tak jasne.

Povestný on-or-off vzájomne sa vylučujúci dichotómický kontrast je považovaný za zavádzajúci spôsob myslenia. Dezinformácie jednej osoby sa nemusia považovať za dezinformácie inej osoby. Rovnako o dezinformáciách. Tvrdí sa, že dezinformácie a dezinformácie sa líšia svojou povahou a rozsahom. Pokúsiť sa definitívne zatriediť všetky informácie do jednej alebo druhej kôpky je oveľa ťažšie, ako naznačuje mávnutie rukou.

Podstatou je, že druhá odrážka týkajúca sa používania AI ako mechanizmu filtrovania má svoje nevýhody. Niet pochýb o tom, že AI sa bude čoraz viac využívať. Zároveň musíme mať na pamäti výzvy, ktoré takáto AI prinesie do popredia. Umelá inteligencia ako filter na dezinformácie a dezinformácie nie je nejaký strieborný náboj alebo slam dunk.

To nás privádza k tretiemu bodu, konkrétne k možnosti použitia AI na to, aby sa ľudia lepšie vysporiadali s dezinformáciami a dezinformáciami.

Pochybujem, že ste o tejto tretej ceste využitia AI v tomto kontexte už veľa počuli. Práve sa začína objavovať. Teraz ste na vrchole niečoho, čo bude pravdepodobne rásť a postupne sa začne používať. Uvedomte si však, že ako sa táto popularita rozširuje, polemika o tom, či je to vhodný prístup, bude tiež veľmi viditeľná.

Časť problému spočíva v tom, že AI sa trochu používa na to, čo by niektorí hanlivo nazývali hranie hier mysle s ľuďmi.

Vyzerá to zlovestne.

To nás tiež privádza do sféry etiky AI.

Toto všetko súvisí aj s triezvo vznikajúcimi obavami o súčasnú AI a najmä o využívaní strojového učenia a hlbokého učenia ako formy technológie a spôsobu ich využívania. Viete, existujú spôsoby použitia ML/DL, ktoré majú tendenciu zahŕňať antropomorfizáciu AI širokou verejnosťou, ktorá verí alebo sa rozhodne predpokladať, že ML/DL je buď vnímajúca AI, alebo je jej blízko (nie je). Okrem toho môže ML/DL obsahovať aspekty porovnávania výpočtových vzorov, ktoré sú nežiaduce alebo úplne nevhodné alebo nezákonné z etického alebo právneho hľadiska.

Mohlo by byť užitočné najprv objasniť, čo mám na mysli, keď hovorím o AI celkovo, a tiež poskytnúť stručný prehľad strojového učenia a hlbokého učenia. Existuje veľký zmätok, pokiaľ ide o to, čo znamená umelá inteligencia. Rád by som vám tiež predstavil zásady etiky AI, ktoré budú obzvlášť neoddeliteľnou súčasťou zvyšku tohto diskurzu.

Vyhlásenie rekordu o AI

Uistime sa, že sme na rovnakej stránke o povahe dnešnej AI.

Dnes neexistuje žiadna umelá inteligencia, ktorá by bola vnímavá.

Toto my nemáme.

Nevieme, či bude vnímajúca AI možná. Nikto nemôže vhodne predpovedať, či dosiahneme vnímajúcu AI, ani to, či sa vnímajúca AI nejakým zázrakom spontánne objaví vo forme výpočtovej kognitívnej supernovy (zvyčajne označovanej ako The Singularity, pozri moje pokrytie na odkaz tu).

Uvedomte si, že dnešná AI nie je schopná „myslieť“ žiadnym spôsobom na rovnakej úrovni ako ľudské myslenie. Keď komunikujete s Alexou alebo Siri, konverzačné schopnosti sa môžu zdať podobné ľudským schopnostiam, ale realita je taká, že sú výpočtové a chýba im ľudské poznanie. Najnovšia éra AI vo veľkej miere využíva strojové učenie a hlboké učenie, ktoré využívajú porovnávanie výpočtových vzorov. To viedlo k systémom AI, ktoré vyzerajú ako ľudské sklony. Medzitým dnes neexistuje žiadna umelá inteligencia, ktorá by mala zdanie zdravého rozumu, ani žiadny z kognitívnych zázrakov robustného ľudského myslenia.

Súčasťou problému je naša tendencia antropomorfizovať počítače a najmä AI. Keď sa zdá, že počítačový systém alebo AI koná spôsobom, ktorý si spájame s ľudským správaním, existuje takmer ohromujúca túžba pripísať systému ľudské vlastnosti. Je to bežná mentálna pasca, ktorá dokáže chytiť aj toho najneústupnejšieho skeptika, pokiaľ ide o šance dosiahnuť rozum.

To je do istej miery dôvod, prečo je etika AI a etická AI taká kľúčová téma.

Prikázania etiky AI nás vedú k tomu, aby sme zostali ostražití. Technológovia umelej inteligencie môžu byť niekedy zaujatí technológiou, najmä optimalizáciou špičkových technológií. Nezohľadňujú nevyhnutne väčšie spoločenské dôsledky. Mať etické myslenie AI a robiť to integrálne s vývojom a zavádzaním AI je nevyhnutné na vytváranie vhodnej AI vrátane hodnotenia toho, ako firmy prijímajú etiku AI.

Okrem používania etických zásad AI vo všeobecnosti existuje zodpovedajúca otázka, či by sme mali mať zákony upravujúce rôzne spôsoby použitia AI. Na federálnej, štátnej a miestnej úrovni sa hromadia nové zákony, ktoré sa týkajú rozsahu a povahy toho, ako by mala byť navrhnutá AI. Snaha vypracovať a prijať takéto zákony je postupná. Etika AI slúži prinajmenšom ako zvažovaná prestávka a takmer určite bude do určitej miery priamo začlenená do týchto nových zákonov.

Uvedomte si, že niektorí neústupne tvrdia, že nepotrebujeme nové zákony, ktoré pokrývajú AI, a že naše existujúce zákony sú dostatočné. Varujú pred tým, že ak prijmeme niektoré z týchto zákonov AI, zabijeme zlatú hus tým, že potlačíme pokroky v AI, ktoré ponúkajú obrovské spoločenské výhody. Pozrite si napríklad moje pokrytie na odkaz tu.

V predchádzajúcich stĺpcoch som popísal rôzne národné a medzinárodné snahy o vytvorenie a prijatie zákonov regulujúcich AI, pozri odkaz tu, napríklad. Zaoberal som sa aj rôznymi princípmi a usmerneniami etiky umelej inteligencie, ktoré identifikovali a prijali rôzne národy, vrátane napríklad úsilia Organizácie Spojených národov, ako je súbor etiky umelej inteligencie UNESCO, ktorý prijalo takmer 200 krajín, pozri odkaz tu.

Tu je užitočný základný zoznam etických kritérií alebo charakteristík AI systémov AI, ktoré som predtým podrobne preskúmal:

  • Priehľadnosť
  • Spravodlivosť a spravodlivosť
  • Neškodnosť
  • zodpovednosť
  • súkromia
  • dobročinnosť
  • Sloboda a autonómia
  • Verte
  • Udržateľnosť
  • dôstojnosť
  • Solidarita

Predpokladá sa, že tieto princípy etiky AI budú vážne využívať vývojári AI spolu s tými, ktorí riadia úsilie o vývoj AI, a dokonca aj tými, ktorí v konečnom dôsledku nasadzujú a vykonávajú údržbu systémov AI. Všetky zainteresované strany počas celého životného cyklu vývoja a používania AI sa zohľadňujú v rámci dodržiavania zavedených noriem Etickej umelej inteligencie. Toto je dôležitý prvok, pretože zvyčajný predpoklad je, že „iba kóderi“ alebo tí, ktorí programujú AI, podliehajú dodržiavaniu etických pojmov AI. Ako už bolo zdôraznené vyššie, na vymyslenie a nasadenie AI je potrebná dedina, v ktorej musí byť celá dedina oboznámená a dodržiavať etické predpisy AI.

Nechajme veci pri zemi a sústreďme sa na dnešnú výpočtovú necitlivú AI.

ML/DL je forma porovnávania výpočtových vzorov. Zvyčajný prístup je taký, že zhromažďujete údaje o úlohe rozhodovania. Dáta vložíte do počítačových modelov ML/DL. Tieto modely sa snažia nájsť matematické vzorce. Po nájdení takýchto vzorov, ak sa nájdu, systém AI potom použije tieto vzory pri stretnutí s novými údajmi. Po predložení nových údajov sa na vyvodenie aktuálneho rozhodnutia použijú vzory založené na „starých“ alebo historických údajoch.

Myslím, že viete hádať, kam to smeruje. Ak ľudia, ktorí sa rozhodovali podľa vzoru, začlenili do seba nepriaznivé predsudky, je pravdepodobné, že údaje to odrážajú jemným, ale významným spôsobom. Zhoda výpočtových vzorov Machine Learning alebo Deep Learning sa jednoducho pokúsi zodpovedajúcim spôsobom matematicky napodobniť údaje. Neexistuje žiadne zdanie zdravého rozumu alebo iných vnímavých aspektov modelovania vytvoreného AI ako takého.

Okrem toho si vývojári AI nemusia uvedomiť, čo sa deje. Tajomná matematika v ML/DL môže sťažiť odhalenie teraz skrytých predsudkov. Oprávnene by ste dúfali a očakávali, že vývojári AI budú testovať potenciálne skryté predsudky, hoci je to zložitejšie, ako by sa mohlo zdať. Existuje solídna šanca, že aj pri relatívne rozsiahlom testovaní budú v modeloch zhody vzorov ML/DL stále zakomponované odchýlky.

Do istej miery by ste mohli použiť známe alebo neslávne známe príslovie o odpadkoch do odpadu. Ide o to, že je to skôr podobné zaujatostiam – in, ktoré sa zákerne naplnia, keď sa predsudky ponoria do AI. Algoritmus rozhodovania (ADM) AI je axiomaticky zaťažený nerovnosťami.

Nie dobré.

Verím, že som teraz pripravil pôdu na to, aby som dostatočne prediskutoval úlohu AI ako prostriedku na urýchlenie psychologického očkovania súvisiaceho s riešením dezinformácií a dezinformácií.

Dostať sa do myslí ľudí

Začnime so základmi alebo základmi, ktoré sú základom dezinformácií a dezinformácií.

Vo všeobecnosti sa dezinformácie týkajú nepravdivých alebo zavádzajúcich informácií.

Dezinformácie sú zhruba rovnaké, aj keď pozostávajú z pridaného prvku sústredený. Informáciu zvyčajne považujeme za dezinformáciu, keď ide o informáciu zamýšľaný dezinformovať.

Môžem vám povedať, že momentálne je 10 hodín v noci, čo je povedzme nepravda, pretože je skutočne polnoc. Ak by som vám povedal 10 hodín ako tušenie a nesnažil som sa klamať, zvyčajne by sme povedali, že som vás nesprávne informoval. Poslal som dezinformácie. Možno som bol lenivý alebo som naozaj veril, že je 10 hodín. Na druhej strane, ak by som spomenul 10:10, pretože som vás chcel úmyselne oklamať, aby ste si mysleli, že je XNUMX hodín a že viem, že je v skutočnosti polnoc, dalo by sa povedať, že ide o formu dezinformácie. .

Jedným z pozoruhodných aspektov informácií celkovo je, že zvyčajne sme schopní šíriť informácie, a tak sa informácie môžu trochu rozšíriť. Informácie môžu skutočne prúdiť ako voda v širšom zmysle.

Hovorím vám, že je 10 hodín v noci. Teraz máte túto konkrétnu informáciu. Môžete nahlas zakričať na skupinu ľudí v okolí, že je 10 hodín v noci. Teraz majú rovnaké informácie. Možno sa niektorí z týchto ľudí dostanú na svoje mobilné telefóny a zavolajú iným ľuďom, aby im povedali, že je 10 hodín. Celkovo možno povedať, že informácie sa môžu šíriť alebo zdieľať a niekedy tak rýchlo, zatiaľ čo v iných prípadoch pomaly.

V istom zmysle by ste mohli tvrdiť, že informácie sa môžu stať virálnymi.

Existuje vymyslené slovo alebo terminológia, ktorú ste možno ešte nevideli alebo nepoužívali a ktorá pomáha pri opise tohto fenoménu, keď sa informácie šíria ako vírus. infodemický. Toto slovo je zmesou informácií a epidémie. Vo všeobecnosti je infodémia spojená s okolnosťami, ktoré zahŕňajú šírenie dezinformácií alebo dezinformácií. Predpokladá sa, že nepravdivé alebo zavádzajúce informácie sa môžu stať vírusovými, nežiaduco, podobne ako nežiaduce šírenie chorôb alebo chorôb.

V príklade o 10. hodine v noci bola táto zdanlivá skutočnosť informáciou, ktorá sa rozšírila na blízku skupinu ľudí. Oni na oplátku šíria skutočnosť ostatným. Ak bola 10. hodina falošná, potom sa tento konkrétny prípad dezinformácie alebo dezinformácie rozšíril na mnoho ďalších. Možno nevedeli, že informácia bola dezinformácia alebo možno dezinformácia.

Verím, že všetky tieto definície a základy sa zdajú rozumné a vy ste zatiaľ na palube.

Skvelé, pokračujeme.

Trochu tajne som vás zaviedol do niečoho, čo zaberá veľkú dávku fascinácie a tiež úzkosti. Podstatou je, že medzi tým, čo spôsobujú choroby vírusovo, a tým, čo vírusovo spôsobujú dezinformácie alebo dezinformácie, je možné povedať, že existujú primerane rozumné paralely.

Nie každý súhlasí s týmito tvrdenými paralelami. Napriek tomu sú zaujímavé a hodné pozornosti.

Dovoľte mi to upresniť.

Vidíte, môžeme sa pokúsiť využiť praktickú analógiu odkazovania na choroby prenášané ľuďmi a choroby, ktoré sa šíria, a porovnať tak podobnú možnosť so šírením dezinformácií a dezinformácií. Aby sme sa pokúsili zastaviť šírenie chorôb, môžeme sa zamerať na včasné odhalenie a snahu potlačiť nový zdroj choroby, ktorý poukazuje na potenciálne šírenie choroby. Ďalším prístupom, ako sa vysporiadať so šíriacou sa chorobou, by bolo chrániť sa pred jej získaním prostredníctvom obozretného používania masky alebo ochranného vybavenia. Tretí prístup by mohol pozostávať z očkovania, aby ste sa pokúsili vybudovať si imunitu súvisiacu s chorobou.

Teraz sme uzavreli kruh v tom, že tie isté prístupy k zvládaniu chorôb možno výslovne prirovnať k zaobchádzaniu s dezinformáciami a dezinformáciami. Už som spomenul, že prebiehajú podobné snahy o využitie umelej inteligencie na účely vysporiadania sa s dezinformáciami a dezinformáciami, najmä (ako už bolo spomenuté):

  • Zastavte sa na začiatku: Umelá inteligencia môže byť použitá na odhalenie a pokus o odstránenie dezinformácií a dezinformácií skôr, ako sa uvoľnia
  • Filtrovať pred zobrazením: Umelá inteligencia môže byť použitá na filtrovanie dezinformácií a dezinformácií, takže sa nemusíte obávať, že ich uvidíte
  • Pripravte sa na imunitu: Umelá inteligencia môže byť použitá na posilnenie vašej pripravenosti a schopnosti bojovať s dezinformáciami a dezinformáciami (známe trochu formálne ako poskytovanie určitého druhu psychologického očkovania)
  • ostatné

Tretí aspekt tu bude najzaujímavejší.

Tu je dohoda.

Vieme, že choroby zvyčajne postihujú Ľudské telo. S analógiou toho, ako sa dezinformácie a dezinformácie vyskytujú, by sme mohli naznačiť, že nečestné informácie narážajú na ľudská myseľ. Áno, pravdepodobne sa môžete dostať do kontaktu s dezinformáciami alebo dezinformáciami, ktoré prúdia do vašej mysle. Dezinformácie alebo dezinformácie potenciálne kazia alebo otrávia váš spôsob myslenia.

Ľudské telo môže byť očkované, aby sa pokúsilo pripraviť sa na kontakt s chorobami. Vynára sa veľká otázka, či môžeme urobiť to isté pre ľudskú myseľ. Je možné pokúsiť sa naočkovať myseľ tak, že keď vám dezinformácie alebo dezinformácie prídu na um, že ste na to pripravení a boli ste podľa toho naočkovaní?

Študijný odbor známy ako psychologické očkovanie predpokladá, že myseľ môže byť skutočne naočkovaná v tom zmysle, že je pripravená zvládnuť dezinformácie alebo dezinformácie.

Zvážte tento opis v nedávnej výskumnej štúdii o psychologickom očkovaní a o tom, čo sa niekedy označuje ako robenie predbunking:

  • „Odhalenie dezinformácií je tiež problematické, pretože oprava dezinformácií nie vždy úplne zruší ich účinky, jav známy ako efekt pokračujúceho vplyvu. V súlade s tým, na rozdiel od odhaľovania, predbunkovanie získalo význam ako prostriedok na preventívne budovanie odolnosti proti očakávanému vystaveniu dezinformáciám. Tento prístup je zvyčajne založený na teórii očkovania. Teória očkovania vychádza z analógie lekárskej imunizácie a predpokladá, že je možné vybudovať psychologickú odolnosť proti nechceným pokusom o presviedčanie, podobne ako lekárske očkovanie buduje fyziologickú odolnosť proti patogénom“ (Veda Zálohy, 24. augusta 2022, „Psychologické očkovanie zlepšuje odolnosť proti dezinformáciám na sociálnych médiách“ od spoluautorov Jona Roozenbeeka, Sandera van der Lindena, Beth Goldbergovej, Steva Rathjeho a Stephana Lewandowského).

Keď sa vrátim k môjmu príkladu o 10. hodine v noci, predpokladajme, že som vám už predtým povedal, že niekedy uvádzaný čas nie je skutočný. Odteraz máte formu očkovania, aby ste boli opatrní pri nárokovaných časoch. Toto očkovanie vás pripravilo na to, že sa dostanete do kontaktu s údajnými časmi, ktoré sú dezinformácie alebo dezinformácie.

Ak som vás pred niekoľkými rokmi varoval, že uvádzané časy nie sú skutočnými časmi, je tu šanca, že by vás toto dávne varovanie nemuselo napadnúť. Skoršie očkovanie sa teda (povedzme) minulo. Moje očkovanie pre vás možno bude potrebné posilniť.

Existuje tiež šanca, že očkovanie nebolo dostatočne špecifické, aby ste ho mohli použiť, keď to bude potrebné. Ak by som vás pred rokmi varoval pred tvrdenými časmi a skutočnými časmi, mohlo by to byť príliš široké. Očkovanie nemusí fungovať v konkrétnom prípade, keď vám povedali o 10. hodine. V tomto zmysle som možno mal byť očkovaný tak, že by ste sa mali mať na pozore, keď sa použije deklarovaný čas 10 hodín. Samozrejme, očkovanie v prípade chorôb je trochu rovnaké, niekedy je veľmi špecifické pre známe ochorenia, zatiaľ čo v iných prípadoch je široké spektrum.

Často citovaná výskumná štúdia uskutočnená v roku 1961 o psychologickom očkovaní Williamom McGuirom z Kolumbijskej univerzity je v súčasnosti všeobecne považovaná za klasiku v tejto oblasti. Možno vás budú zaujímať tieto kľúčové body, ktoré v tom čase urobil:

  • „Takáto všeobecná imunizácia by mohla pochádzať z jedného z dvoch mechanizmov. Predexpozícia môže človeka šokovať, keď si uvedomí, že „truizmy“, ktoré vždy akceptoval, sú skutočne zraniteľné, čím ho vyprovokujú k tomu, aby si svoju vieru obhájil, čo má za následok, že je odolnejší voči silným protiargumentom, keď prídu. Alternatívne môžu vyvrátenia zahrnuté v predbežnej expozícii spôsobiť, že všetky následne prezentované protiargumenty proti presvedčeniu budú menej pôsobivé“ (William McGuire, „Odpor voči presvedčeniu vyvolaný aktívnym a pasívnym predchádzajúcim vyvrátením rovnakých a alternatívnych protiargumentov“, Journal of Abnormal a Sociálna psychológia, 1961).

Považujete túto analógiu očkovania a imunizácie za užitočné a výstižné prirovnanie k sfére dezinformácií a dezinformácií?

Niektorí áno, niektorí nie.

Na účely tejto diskusie prosím akceptujte, že predpoklad je primeraný a výstižný.

Ako sa máme pokúsiť očkovať alebo imunizovať mysle ľudí?

Mohli by sme prinútiť ľudí, aby čítali knihy, ktoré by mohli osvietiť ich myseľ. Mohli by sme im o tom povedať alebo ich nechať pozerať videá alebo počúvať audiokazety. Atď.

A na to isté môžeme použiť AI.

Systém AI môže byť navrhnutý ako váš inokulátor. Kedykoľvek začnete byť online, napríklad sa pozriete na internet, aplikácia založená na AI vás môže pripraviť na vašu online cestu. AI vás môže nakŕmiť malým množstvom dezinformácií, ktoré sú takto označené, čo vám umožní uvedomiť si, že sa chystáte vidieť niečo, čo je zámerne falošné.

Po vystavení tejto dezinformácii kŕmenej AI sa vaša myseľ teraz pripravuje na to, aby sa vyrovnala s dezinformáciami alebo dezinformáciami, s ktorými sa môžete stretnúť vo voľnej prírode na internete. Vaša myseľ je pripravená. Voilá, na internete vidíte blog, ktorý ponúka tvrdený fakt, že mimozemské stvorenia z Marsu sú už tu na Zemi a skrývajú sa pred očami ľudí, ale tieto zdanlivé dezinformácie alebo dezinformácie vaša myseľ ľahko odmietne kvôli predchádzajúcemu očkovaniu (dobre, potom znova, možno je to pravdivé a naozaj sú tu!).

Každopádne dúfam, že teraz dokážete rozlíšiť, ako by AI mohla pomôcť naočkovať alebo imunizovať ľudí v súvislosti s dezinformáciami alebo dezinformáciami.

Vymýšľajú sa rôzne aplikácie AI, ktoré budú slúžiť ako dezinformačné alebo dezinformačné očkovacie látky. AI sa môže snažiť poskytnúť očkovanie, ktoré je široké a poskytuje celkový dojem imunizácie. AI by sa mohla navrhnúť aj pre špecifickejšie formy očkovania. Okrem toho môže AI pracovať na personalizovanom základe, ktorý je prispôsobený vašim konkrétnym potrebám alebo záujmom. Pokročilá AI v tomto priestore sa tiež pokúsi určiť vašu úroveň tolerancie, mieru mentálnej absorpcie, retenčnú kapacitu a ďalšie faktory pri skladaní a prezentovaní takzvaných imunizačných záberov.

Vyzerá celkom šikovne.

AI ako hráč Dangerous Mind Games Player

AI použitá týmto spôsobom by sa na prvý pohľad zdala celkom šikovná (hej, spomínal som to len pred sekundou).

Existuje množstvo potenciálnych nevýhod a problémov, ktoré sú znepokojujúce a možno aj desivé.

Vo svojich stĺpcoch často rozoberám kapacity AI na dvojaké použitie, pozri napr odkaz tu. Umelá inteligencia môže byť dôležitým prínosom pre ľudstvo. Bohužiaľ, AI je tiež zaťažená množstvom nebezpečenstiev a nešťastných nástrah.

V prípade umelej inteligencie ako intelektuála zvážme tieto demonštratívne problémy súvisiace s etikou AI:

  • Nežiaduce reakcie u ľudí
  • Nereagujúce reakcie ľudí
  • Nesprávne zameranie AI
  • Nedostatočné zacielenie AI
  • Cyber ​​Breach of the AI
  • ostatné

Tieto obavy stručne preskúmame.

Nežiaduce reakcie u ľudí

Predpokladajme, že človek, ktorý dostáva tento druh očkovania na báze AI, má nepriaznivú reakciu alebo vyvoláva nepriaznivý účinok.

Osoba si môže nesprávne vysvetľovať imunizáciu a náhle prestane vnímať akúkoľvek informáciu, ktorú dostane. Blokujú všetky informácie. Umelá inteligencia ich nejako prinútila vyliať dieťa spolu s vodou (staré príslovie, ktoré možno stojí za to odísť do dôchodku). Namiesto toho, aby sa len snažil vyrovnať s dezinformáciami a dezinformáciami, osoba reagovala rozhodnutím, že všetky informácie sú vždy nepravdivé.

Nemyslím si, že chceme, aby to ľudia preháňali.

Existuje množstvo nežiaducich reakcií, ktoré môže AI podporovať. Čiastočne je to spôsobené tým, ako sa AI pokúsila vykonať očkovanie, ale časť problému musíme položiť k nohám človeka, ktorý dostal očkovanie. Mohli reagovať divokým alebo bizarným spôsobom, že iní, ktorí dostali rovnakú inokuláciu AI, tak neurobili.

Opäť to môžete prirovnať k analógii s očkovaním proti chorobám.

Stručne povedané, bude dôležité, aby sa takéto úsilie AI využívalo zodpovedným spôsobom, ktorý sa snaží minimalizovať nepriaznivé účinky. Mal by existovať aj nadväzujúci aspekt AI, aby ste sa pokúsili zistiť, či sa vyskytla nežiaduca reakcia. Ak sa zistí nežiaduca reakcia, AI by mala byť navrhnutá tak, aby sa pokúsila pomôcť osobe v jej nepriaznivej reakcii a snažila sa túto reakciu prekonať alebo zmierniť.

Nereagujúce reakcie ľudí

Ďalšou možnosťou je, že očkovanie s AI nemá žiadny vplyv na prijímajúcu osobu.

Osoba dostane očkovanie založené na AI súvisiace s dezinformáciami alebo dezinformáciami. Zatiaľ čo väčšina ľudí to „dostane“ a stane sa imunizovaným, určite sa nájdu ľudia, ktorí nebudú reagovať vôbec. Z očkovania sa nič nedozvedia. Nereagujú na pokus AI o imunizáciu voči všetkým alebo určitým typom dezinformácií alebo dezinformácií.

Opäť je to porovnateľné s očkovaním proti chorobám.

AI by mala byť navrhnutá tak, aby čelila takejto situácii.

Nesprávne zameranie AI

Predstavte si, že AI dúfa, že imunizuje ľudí v súvislosti s konkrétnou témou, o ktorej povieme, že je témou X, ale ukázalo sa, že namiesto toho sa zaoberá témou Y. AI sa mýli.

Ide o dvojaký problém. Po prvé, téma X potom nebola pokrytá ako predpokladaný a očakávaný účel inokulátora AI. Po druhé, téma Y je pokrytá, ale možno sme nechceli, aby boli ľudia na túto tému zaočkovaní.

Oops.

Otázok je veľa. Dalo sa tomu zabrániť? Ak sa to stane, môžeme vrátiť späť tému Y imunizácie? Môžeme sa snažiť pokryť tému X očkovanie, alebo bude osoba menej vnímavá alebo nevnímavá kvôli pôvodnému nesprávnemu zameraniu AI?

Vzniká veľa problematických obáv.

Nedostatočné zacielenie AI

AI poskytuje očkovanie na tému Z. Zdá sa, že ľudia, ktorí dostávajú očkovanie, majú minimálnu alebo takmer zanedbateľnú reakciu. Očkovanie nebolo dostatočné na to, aby sa uchytilo.

Môžete byť v pokušení rýchlo tvrdiť, že sa to dá ľahko vyriešiť. Stačí očkovanie zopakovať. Možno áno možno nie.

Očkovanie AI môže mať takú obmedzenú hodnotu, že bez ohľadu na to, či to ľudia zažijú stokrát, výsledok je stále okrajový. Možno budete musieť posilniť očkovanie namiesto toho, aby ste ho jednoducho opakovali.

Medzitým si predstavte, že dôjde k pokusu o zvýšenie očkovania umelou inteligenciou, ale ide to cez palubu. Posilnená verzia spôsobuje hyperreakcie. Fuj, dostali sme sa od zlého k horšiemu.

Kybernetické porušenie AI

Predstavte si, že umelá inteligencia sa vo veľkej miere využíva na pomoc ľuďom, aby boli zaočkovaní dezinformáciami a dezinformáciami.

U ľudí prevláda všeobecná dôvera. Vedia a očakávajú, že AI im predloží úryvky, ktoré im otvoria oči v tom, čo je známe ako dezinformácie a dezinformácie.

Všetko je v poriadku, zdá sa.

Zločinec je nejakým spôsobom schopný urobiť kybernetické narušenie AI. Zákerne vnucujú AI nejakú požadovanú dezinformáciu, o ktorej chcú, aby si ľudia mysleli, že dezinformácia nie je. AI je usporiadaná tak, aby sa skutočné dezinformácie javili ako pravdivé informácie. Okrem toho sa pravdivé informácie javia ako dezinformácie.

Ľudia sú úplne snookerovaní. Sú dezinformovaní AI. Navyše, pretože sa stali závislými na AI a vďaka dôvere, že AI robí správnu vec, padajú za túto narušenú AI hák, šnúra a závažie. Bez zaváhania.

Vzhľadom na to, ako ľahko sa môžu dezinformácie šíriť ďalej, by si zločinci mohli vychutnať, že existencia tohto druhu AI je ich najjednoduchším a najrýchlejším spôsobom, ako ich zákerné lži dostať do sveta. Je iróniou, že sme samozrejme využili inokulátor AI na šírenie choroby.

záver

Mali by sme mať AI, aby s nami hrala hry mysle?

Môže byť AI na dezinformačné a dezinformačné očkovanie hrozivým trójskym koňom?

Pre obavy z takejto nočnej mory môžete urobiť vecný dôvod.

Iní sa takejto možnosti vysmievajú. Ľudia sú dosť inteligentní na to, aby vedeli, kedy sa ich AI pokúsi oklamať. Ľudia takémuto driblingu nenaletia. Len idioti by sa nechali zmiasť takouto AI. To sú bežné repliky a protiargumenty.

Nechcel by som sa zdať, že len úplne obdivujem ľudí a ľudskú povahu, len by som navrhol, že existuje dostatok náznakov, že ľudia by mohli prepadnúť AI, ktorá ich zavádza.

Nad tým všetkým sa možno vynára ešte väčší problém.

Kto vytvára AI a ako AI algoritmicky rozhoduje o tom, čo sa považuje za dezinformáciu a dezinformáciu?

Vo svete dnes prebieha celá prestrelka o tom, čo konkrétne predstavujú dezinformácie a dezinformácie. Niektorí tvrdia, že fakty sú fakty, takže nikdy nemôže dôjsť k zámene, čo je správna informácia oproti nesprávnej informácii. Aj keď je diabol občas v detailoch, to je sakramentsky isté.

Zatiaľ posledná poznámka. Abraham Lincoln preslávil výrok: „Môžete oklamať všetkých ľudí v určitom čase a niektorých ľudí stále, ale nemôžete oklamať všetkých ľudí stále.“

Bude AI, ktorá sa používa na pomoc pri očkovaní ľudstva pred dezinformáciami a dezinformáciami, životne dôležitým nástrojom na zabezpečenie toho, že nie všetci ľudia môžu byť neustále oklamaní? Alebo by sa to dalo použiť na oklamanie viacerých ľudí častejšie?

Čas ukáže.

A to určite nie sú dezinformácie alebo dezinformácie.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-desinformation/