The Cry Wolf Moment of AI Hype je neužitočný

Hoci som niekto, kto študuje scenáre konca ľudstva, verím, že „odborný list“ navrhujúci 6-mesačné moratórium na AI alebo novšie vyhlásenie, že riziko AI je na úrovni pandémie a jadrového rizika, sú prehnané. Ešte divokejší názor, že musíme vypnúť AI, je nezodpovedný. Akékoľvek obavy musia byť úmerné rizikám, ktorým čelíme. Momentálne nám AI nehrozí žiadne bezprostredné nebezpečenstvo.

Súčasné AI nie sú schopné ovládnuť spoločnosť. Nemajú city a nezaslúžia si ochranu ako ľudské životy. Nie sú superinteligentní a v žiadnom prípade neprevyšujú ľudí. V skutočnosti vôbec nerozmýšľajú. Práve teraz, ak sú AI kŕmené množstvom údajov, sú veľmi dobré v špecifických úlohách, ako sú výpočty a predpovede. To nie je znepokojujúce, to sú vlastnosti, ktoré tieto systémy majú podľa návrhu. Prísľub AI zahŕňa riešenie rakoviny, transformáciu priemyselnej výroby, modelovanie budúcich scenárov a zvládanie environmentálnych výziev. Napriek tomu existujú legitímne dôvody kritizovať súčasné AI za využívanie zdrojov, transparentnosť, zaujatosť, kybernetickú bezpečnosť a jej budúci vplyv na zamestnanosť.

AI sú výpočtovo drahé – čo znamená, že sú veľkým plytvaním vzácnou fosílnou energiou. Toto treba okamžite riešiť. Ale to nie je existenčná záležitosť, je to vec racionálneho využívania zdrojov. Skutočnosť, že AI, ktoré sa spoliehajú na veľké a neefektívne dátové modely, sú príliš drahé na to, aby ich mohla sledovať a skúmať akademická obec alebo vláda, je skutočným problémom. Ale je to okamžite opraviteľné. Konzorciá elitných akademických inštitúcií alebo vlád by mohli ísť spolu a zdieľať výpočtové zdroje tak, ako to urobili pre superpočítače.

Veľké jazykové modely (LLM) sú modely AI, ktoré dokážu generovať texty v prirodzenom jazyku z veľkého množstva údajov. Problémom je, že tieto texty sú priamo odvodené od čestných intelektuálnych príspevkov iných ľudí. V skutočnosti sú ukradnuté. Najmä generatívna AI rekombinuje spotrebiteľské a organizačné údaje, ako aj kreatívny obsah, čím výrazne porušuje autorské práva. Je to vážne, ale nie existenčné, a navyše EÚ, lobisti z Hollywoodu a knižní vydavatelia „veľkej päťky“ už tento prípad riešia. Očakávajte, že to spomalí silu AI. Pri súčasnom tempe umelej inteligencie dôjdu dobré tréningové údaje ešte predtým, ako sa priblíži k rozumu.

Algoritmy, ktoré sa už používajú na výpočet našich daní, výber našich online informačných kanálov alebo uväznenie ľudí, majú zarážajúci nedostatok transparentnosti. To však platí už roky a nemá to nič spoločné s najnovším vývojom AI. Zaujatosť AI je vlastnosť a nie chyba. Stereotypizácia je v skutočnosti hlavným prístupom, prostredníctvom ktorého takéto modely fungujú. Ibaže predsudky sú skryté v nepreniknuteľných vrstvách strojového uvažovania, ktoré sú nepolapiteľné pre ľudí, odborníkov alebo nie. Čo by sme mali spochybňovať, je múdrosť vývojárov, ktorí takéto systémy vyvinuli, nie schopnosť systému, ktorý vytvorili, ktorý je daný. Systémy budú len zriedka lepšie ako múdrosť alebo zámery tých, ktorí ich budujú alebo prevádzkujú.

Tréningové údaje AI odrážajú predsudky prítomné v spoločnosti, z ktorej boli tieto údaje zhromaždené. Opätovné použitie zlých tréningových údajov je znepokojivý postup, ktorý už znečisťuje modely AI. Súčasné prístupy AI jednoducho zosilňujú zaujatosť, aby sa rýchlo dostali k výsledku. To je, pravda, opak toho, čo chceme. To, čo chceme urobiť, je použiť technológiu na ochranu ľudských chýb. Obávať sa o chybu stroja je plytvanie ľudskou inteligenciou.

Napriek metafore „neurónovej siete“ sa súčasné AI v žiadnom prípade nepodobajú mozgu. Súčasné systémy AI nedokážu uvažovať analogicky ako ľudia. Toto je dobré. Možno v skutočnosti nechceme zarovnanie AI, ktoré fanatici obhajujú a snažia sa napodobniť. Stroje by sa mali líšiť od ľudí. Len tak môžeme navzájom maximalizovať svoje silné stránky. A ako dokážeme udržať stroje oddelené a oddelené. Stroje by nemali mať žiadne záujmy na zoraďovanie.

Umelá inteligencia čoraz viac predstavuje významnú hrozbu pre kybernetickú bezpečnosť ako prínos pre zločincov a nepriateľské štáty. Ale kybernetická bezpečnosť je vyspelé odvetvie s množstvom odborníkov dobre vybavených na zvládnutie tejto výzvy. Nie je dôvod vypnúť AI kvôli obavám z kybernetickej bezpečnosti.

Prerušenie zamestnanosti v dôsledku AI je už roky politickým problémom, najprv s robotmi, teraz so softvérovými systémami AI. To znamená, že vlády budú pripravené to riešiť. Štúdia MIT Work of The Future zistila, že obavy z nezamestnanosti v dôsledku robotov sú prehnané. Ľudia vždy našli spôsoby, ako pracovať a budú tak robiť aj v budúcnosti. Zmení výrobu AI? Už sa to deje, ale dosť kontrolovaným spôsobom.

Umelá inteligencia z času na čas trpí prehnanými sľubmi o súčasnej funkčnosti alebo budúcom rozsahu. Prvé zimy AI sa začali v rokoch 1974–1980, keď vláda USA stiahla svoje financovanie. Druhý bol z rokov 1987 – 1993, keďže náklady eskalovali a AI nedokázala splniť svoje vznešené sľuby.

Očakávajúc príchod nových paradigiem, v období 2025–2030, pravdepodobne vstúpime do tretej zimy AI. Aspoň v porovnaní s horúcim letom AI, ktoré máme sľúbené. Dôvodom je to, že napriek humbuku, zo všetkých dôvodov načrtnutých vyššie, veľké jazykové modely čoskoro dosiahnu svoju maximálnu užitočnosť a nakoniec budú musieť byť nahradené výpočtovo elegantnejšími prístupmi, ktoré sú transparentnejšie.

Jedným z takýchto kandidátov je hyperdimenzionálne výpočty, ktoré by umožnili strojom uvažovať efektívnejšie, pretože poskytujú strojom sémantické pochopenie, schopnosť spracovať význam a kontext za informáciami v reálnom svete. Systémy umelej inteligencie práve teraz nerozumejú vzťahom medzi slovami a frázami, jednoducho vedia dobre hádať. To je nedostatočné. Nakoniec budeme potrebovať stelesnenú AI, pretože myslenie je spojené s vnímaním priestoru. To je určite prípad výroby, ktorá je vysoko fyzickou hrou. Budeme tiež potrebovať AI, ktorá je schopná funkcií ľudskej pamäte, ako je určovanie priorít na základe niektorých informácií v popredí a iných informácií. Zabúdanie je nástroj, ktorý ľudia používajú na abstraktné myslenie, prechod od zastaraných organizačných praktík, prijímanie rozhodnutí a na zotrvanie v danom okamihu a nie je to len chyba. To zatiaľ žiadne stroje nedokážu veľmi dobre.

Medzitým musíme regulovať, ale nie túto sekundu. A keď regulujeme, radšej to robíme dobre. Zlá regulácia AI pravdepodobne situáciu zhorší. Prebudenie regulačných orgánov voči tejto výzve môže byť užitočné, ale nie som si istý, či súčasná generácia regulátorov je pripravená na taký druh rozsiahlych zmien, ktoré by boli potrebné, aby to dobre zvládli. Znamenalo by to obmedzenie mocných spoločností (možno všetkých kótovaných spoločností), obmedzenie používania AI pri riadení a znamenalo by to obrovské zmeny v spôsobe, akým v súčasnosti fungujú spotrebiteľské trhy. V podstate by sme museli prepojiť spoločnosť. Uvoľnilo by nás to o niekoľko desaťročí skôr, ako by sme si možno želali. Výzva týkajúca sa transparentnosti okolo AI môže byť impozantnejšia ako kontrolné premenné, z ktorých sa všetci tak veľmi obávajú, samozrejme, nie že by spolu nesúviseli.

Navyše sa nemôžeme rovnako obávať zakaždým, keď sa dosiahne referenčná hodnota AI. Musíme si šetriť energiu na skutočne veľké momenty kaskádového rizika. Oni prídu a úprimne povedané, nie sme pripravení. Moje predstavy o budúcich scenároch (pozri Scenáre vyhynutia na rok 2075) zahŕňajú masívne úniky údajov, ktoré držia celé krajiny mimo ich vlastných procesov na celé mesiace. Tiež ma znepokojujú AI, ktorým pomáhajú zločinecké skupiny alebo štátni aktéri. Najviac zo všetkého ma znepokojujú kombinácie umelej inteligencie, nanotechnológie, syntetickej biológie a kvantovej technológie – takmer neviditeľná kvázi organická inteligencia neznámych schopností, možno len o niekoľko desaťročí ďalej, ktorá sa stane práve vtedy, keď svet pohltí kaskádové efekty klímy. zmeniť.

Súčasné modely AI ešte nefungujú dostatočne dobre, aby boli hrozbou pre ľudstvo. Predtým, než budeme môcť zvážiť ich vypnutie, potrebujeme lepšie AI. Okrem toho potrebujeme múdrejších vývojárov, citlivejších občanov a lepšie informovaných tvorcov politík. Potrebujeme aj koncept AKO regulovať AI. Ale to sa dá urobiť bez toho, aby sa niečo spomalilo. Bude to vzdelávacia cesta pre všetkých. List o moratóriu týkajúci sa GPT 4 (2023) je vlčím momentom, ktorý len slabo pripomína kaskádové riziká, ktorým bude ľudstvo čeliť v nasledujúcich desaťročiach. Postaviť riziko AI na úroveň rizika pandémie a jadrového rizika v roku 2023 je predčasné. Dostaneme sa tam? Možno. Ale plačúci vlk má následky. Vysáva kyslík z nadchádzajúcich debát o skutočných strachoch.

Zdroj: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/