Desiatky odborníkov na umelú inteligenciu (AI), vrátane generálnych riaditeľov OpenAI, Google DeepMind a Anthropic, nedávno podpísali otvorené vyhlásenie zverejnené Centrom pre bezpečnosť AI (CAIS).
Vydali sme len vyhlásenie:
"Zmiernenie rizika vyhynutia v dôsledku AI by malo byť globálnou prioritou popri iných rizikách spoločenského rozsahu, ako sú pandémie a jadrová vojna."
Medzi signatárov patria Hinton, Bengio, Altman, Hassabis, Song atď. https://t.co/N9f6hs4bpa
(1 / 6)
— Dan Hendrycks (@DanHendrycks) Môže 30, 2023
Vyhlásenie obsahuje jednu vetu:
"Zmiernenie rizika vyhynutia v dôsledku AI by malo byť globálnou prioritou popri iných rizikách spoločenského rozsahu, ako sú pandémie a jadrová vojna."
Medzi signatármi dokumentu sú skutoční „kto je kto“ zo svetiel AI, vrátane „krstného otca“ AI, Geoffrey Hinton; Kalifornská univerzita, Stuart Russell z Berkeley; a Lex Fridman z Massachusetts Institute of Technology. Hudobník Grimes je tiež signatárom, ktorý je uvedený v kategórii „iné významné osobnosti“.
Súvisiace: Hudobník Grimes ochotný „rozdeliť 50 % tantiém“ s hudbou vytvorenou AI
Aj keď sa toto vyhlásenie môže zdať neškodné, základná správa je v komunite AI trochu kontroverzná.
Zdanlivo rastúci počet odborníkov sa domnieva, že súčasné technológie môžu alebo nevyhnutne povedú k vzniku alebo rozvoju systému AI schopného predstavovať existenčnú hrozbu pre ľudský druh.
Ich názorom však kontruje kontingent odborníkov s diametrálne odlišnými názormi. Hlavný vedec AI Yann LeCun napríklad pri mnohých príležitostiach poznamenal, že nemusí nevyhnutne veriť, že AI sa stane nekontrolovateľnou.
Nadľudská AI nie je ani zďaleka na vrchole zoznamu existenčných rizík.
Z veľkej časti preto, že ešte neexistuje.Kým nebudeme mať základný dizajn pre umelú inteligenciu dokonca na úrovni psov (nehovoriac o ľudskej úrovni), diskutovať o tom, ako zabezpečiť bezpečnosť, je predčasné. https://t.co/ClkZxfofV9
— Yann LeCun (@ylecun) Môže 30, 2023
Pre neho a ďalších, ktorí nesúhlasia s rétorikou o „zániku“, ako je Andrew Ng, spoluzakladateľ Google Brain a bývalý hlavný vedecký pracovník v Baidu, nie je AI problém, ale odpoveď.
Na druhej strane argumentu experti ako Hinton a Conjecture CEO Connor Leahy veria, že umelá inteligencia na ľudskej úrovni je nevyhnutná, a preto je čas konať práve teraz.
Vedúci všetkých veľkých laboratórií AI podpísali tento list, čím výslovne uznali riziko vyhynutia z AGI.
Neuveriteľný krok vpred, gratulujeme Danovi k jeho neuveriteľnej práci, ktorú dal dokopy, a ďakujem každému signatárovi za to, že urobil svoju časť pre lepšiu budúcnosť! https://t.co/KDkqWvdJcH
— Connor Leahy (@NPCollapse) Môže 30, 2023
Nie je však jasné, aké kroky žiadajú signatári vyhlásenia. Generálni riaditelia a / alebo vedúci AI takmer každej veľkej spoločnosti AI, ako aj renomovaní vedci z celej akademickej obce, sú medzi tými, ktorí podpísali, čím je zrejmé, že zámerom nie je zastaviť vývoj týchto potenciálne nebezpečných systémov.
Začiatkom tohto mesiaca sa generálny riaditeľ OpenAI Sam Altman, jeden zo signatárov vyššie uvedeného vyhlásenia, prvýkrát objavil pred Kongresom počas vypočutia v Senáte, aby diskutoval o regulácii AI. Jeho svedectvo sa dostalo na titulky po tom, čo väčšinu z nich strávil naliehaním na zákonodarcov, aby regulovali jeho odvetvie.
Altman's Worldcoin, projekt kombinujúci kryptomenu a proof-of-personhood, sa tiež nedávno objavil v médiách po získaní 115 miliónov dolárov na financovanie série C, čím sa jeho celkové financovanie po troch kolách zvýšilo na 240 miliónov dolárov.
Zdroj: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war