Tvorcovia politiky sa musia vysporiadať so skutočnými výzvami AI

Zameranie sa na zahmlené riziko vyhynutia v dôsledku AI je nebezpečným rozptýlením.

Minulý týždeň skupina financovaná zo Silicon Valley s názvom Centrum pre bezpečnosť AI vydala jednovetové vyhlásenie: „Zmiernenie rizika zániku umelej inteligencie by malo byť globálnou prioritou popri iných rizikách spoločenského rozsahu, ako sú pandémie a jadrová vojna. Podpísali ho mnohí lídri v odvetví a uznávaní výskumníci AI a dostalo sa mu rozsiahleho pokrytia v tlači.

Širšia reakcia na vyhlásenie bola tvrdá. Profesorka Oxfordskej univerzity Sandra Wachter povedala, že išlo len o reklamný ťah. Niektorí z rozumnejších signatárov, ako napríklad bezpečnostný expert Bruce Schneier, rýchlo vyjadrili výčitky svedomia signatárov. "Vlastne si nemyslím, že AI predstavuje riziko pre ľudské vyhynutie," povedal Schneier.

Iní si mysleli, že toto vyhlásenie je skutočne trik na získavanie finančných prostriedkov. Profesor sociológie z Duke University Kieren Healy zverejnil falošnú parafrázu: „Moji priatelia a ja budeme požadovať absolútny náklad grantových peňazí na zmiernenie doslovných existenčných hrozieb na úrovni druhov spojených s touto vecou, ​​o ktorej tvrdíme, že spôsobujeme.

Marietje Schaake, bývalá členka parlamentu EÚ v Centre pre kybernetickú politiku Stanfordskej univerzity, navrhla, že podtextom vyhlásenia bolo, že tvorcovia politík by sa mali zaoberať existenčnými rizikami, zatiaľ čo obchodní manažéri stanovujú skutočné pravidlá používania AI. Hoci AI môže byť nová, povedala, tento implicitný argument, že lídri v odvetví AI „majú najlepšie predpoklady na reguláciu samotných technológií, ktoré produkujú“, nie je ničím iným ako poukázaním na recyklované body z ich predchádzajúceho používania v sociálnych médiách a kontroverziách o kryptomenách.

Myslím si, že apokalyptické varovania o tom, že AI dosiahne uvedomelú a nezávislú agentúru, odvádzajú pozornosť od skutočných výziev AI, ktoré si vyžadujú, aby regulačné orgány zintenzívnili presadzovanie súčasného práva a tvorcovia politík, aby zvážili revízie, aby sa vyriešili právne medzery.

Podvody uskutočnené pomocou AI sú nezákonné, ako povedala predsedníčka Federálnej obchodnej komisie Lina Khan. Agentúra už varovala pred používaním AI na vydávanie sa za ľudí na páchanie video a telefónnych podvodov. Čína si všimla to isté a zakročila proti podvodom riadeným AI. Nie je jasné, že tu existujú nové právne problémy, ale na kontrolu nad touto nadchádzajúcou záplavou podvodov s AI by bolo potrebné obrovské úsilie v oblasti presadzovania. Plné financovanie rozpočtovej požiadavky agentúry vo výške 590 miliónov dolárov by bolo oveľa produktívnejším využitím verejných peňazí ako štúdia existenčných rizík AI.

Všetci sa riadne znepokojujú dezinformáciami vytvorenými AI, ako napríklad nedávnym vyhlásením „Falošného Putina“, že Rusko bolo napadnuté. Označovanie môže výrazne prispieť k zníženiu týchto rizík. Reklama od Republikánskeho národného výboru, ktorá nasledovala po Bidenovom oznámení o jeho prezidentskej kandidatúre, použila AI na generovanie obrázkov toho, čo by sa mohlo stať počas nového Bidenovho predsedníctva, ale bola takto označená, čím sa znížilo riziko dezinformácií.

Transparentnosť pre AI je plodom politiky, ktorého by sa politici mali chopiť, ako sa zdá, že niektorí robia. Tento týždeň podpredsedníčka Európskej komisie Vera Jourová vyzvala technologické spoločnosti, aby označili obsah generovaný umelou inteligenciou. V USA, Rep. Ritchie Torres (DN.Y.) čoskoro zavedie legislatívu, ktorá by vyžadovala, aby služby ako ChatGPT zverejnili, že jej výstup bol „generovaný umelou inteligenciou“.

Autorské práva a AI sú ďalšou výzvou. Je potrebné objasniť kompenzáciu vlastníkov autorských práv za použitie ich materiálu na školenie AI. Vo februári Getty zažaloval Stability AI v USA a uviedol, že spoločnosť AI skopírovala 12 miliónov obrázkov Getty bez povolenia na trénovanie svojho softvéru na generovanie obrázkov Stable Diffusion AI. Minulý týždeň požiadala londýnsky súd, aby zablokoval Stability AI vo Veľkej Británii, pretože spoločnosť AI porušila autorské práva Gettyho pri výcviku svojho systému.

Tieto prípady sa budú riešiť na súde. Existuje však slušný argument, že držitelia autorských práv nemusia byť vôbec odškodnení, či už z dôvodu fair use, alebo preto, že na školenie AI sa získavajú iba nechránené fakty a nápady. Okrem toho smernica Európskej únie o autorských právach na jednotnom digitálnom trhu z roku 2019 obsahuje výnimku, ktorá umožňuje ťažbu textu a údajov z online materiálu chráneného autorskými právami, pokiaľ sa vlastník autorských práv neodhlási pomocou technologických ochrán, ako je blokovanie hlavičiek, aby sa zabránilo skenovaniu. To by mohlo zahŕňať tréningové údaje AI.

Aktuálny návrh zákona Európskej únie o umelej inteligencii vyžaduje zverejnenie diel chránených autorskými právami používaných pri výcviku systémov umelej inteligencie. Zdá sa, že cieľom je umožniť vlastníkom autorských práv uplatniť svoje právo odhlásiť sa z dolovania textu a údajov pre školenia AI. Ale môže to byť aj krok k niečomu ďalej. Mohlo by to viesť k povinnému licenčnému režimu, ktorý by zabránil držiteľom autorských práv blokovať školenia AI, ale poskytol by im určitú kompenzáciu za používanie ich duševného vlastníctva. Vyriešenie týchto problémov s autorskými právami si bude vyžadovať sústredenú pozornosť politikov.

Zákon EÚ o umelej inteligencii tiež vyžaduje, aby rizikové systémy umelej inteligencie prešli certifikačným procesom, ktorého cieľom je zabezpečiť, aby boli riziká primerane posúdené a aby boli prijaté primerané opatrenia na ich zmiernenie. Súčasný návrh považuje základné modely, ako je ChatGPT, za rizikové systémy podliehajúce certifikácii, čo je potenciálna záťaž, ktorá zjavne prinútila šéfa Open AI Sama Altmana k tomu, aby povedal, že stiahne ChatGPT z Európy, ak ho nebude môcť dodržiavať. Odvtedy túto hrozbu vrátil a povedal, že nemá v pláne odísť.

Napriek tomu má pravdu. Tvorcovia politík, ktorí hľadajú konkrétnu otázku, ktorú by mohli žuť, by si mali položiť otázku, ako by mohol byť systém umelej inteligencie na všeobecné účely, akým je ChatGPT, certifikovaný ako „bezpečný“, keď mnohé z rizík sa objavia až pri uplatňovaní systému v praxi.

Toto sú len niektoré z kľúčových problémov AI, ktoré by sa mali týkať tvorcov politík. Medzi ďalšie patria vplyvy stále schopnejších systémov AI na zamestnanosť, problémy so súkromím, keď školiace údaje zahŕňajú osobné informácie, tendencia ku koncentrácii spôsobená obrovskými nákladmi a sieťovými účinkami školiaceho softvéru AI, uplatňovanie pravidiel zodpovednosti podľa § 230 a presadzovanie zákony proti zaujatosti pri poskytovaní úverov, bývania a zamestnávania, keď AI riadi hodnotenia oprávnenosti.

Tvorcovia politiky nemusia a nemali by zablúdiť do zahmlených oblastí, kde sa autonómne programy AI vymykajú kontrole a ohrozujú prežitie ľudí. Majú veľa práce, aby čelili mnohým výzvam AI v skutočnom svete.

Zdroj: https://www.forbes.com/sites/washingtonbytes/2023/06/06/policymakers-need-to-deal-with-real-ai-challenges/