Nie, nečestný dron amerického letectva sa len nepokúsil zabiť svojho operátora (ale možno sa to aj podarilo) zabijácky robot s umelou inteligenciou

Množstvo farebných titulkov ako „Americké letectvo popiera simuláciu, v ktorej umelá inteligencia „zabil“ operátora, sa predvídateľne stalo virálnym po informáciách o virtuálnom teste, v ktorom vojenská umelá inteligencia vyvinula niektoré neortodoxné stratégie na dosiahnutie svojho cieľa. Stalo sa to len niekoľko dní po varovaní pred existenčnými hrozbami, ktoré predstavuje AI, od predstaviteľov odvetvia. Bol to príliš dobrý príbeh na to, aby bol pravdivý, ale z dlhodobého hľadiska to nemusí byť dôležité.

V pôvodnej verzii Plukovník Tucker „Cinco“ Hamilton, šéf AI Test & Operations USAF, opísal simulovaný test zahŕňajúci dron riadený AI, ktorý dostal pokyn zničiť nepriateľské systémy protivzdušnej obrany.

„Systém si začal uvedomovať, že hoci identifikovali hrozbu, občas mu ľudský operátor povedal, aby túto hrozbu nezabíjal, ale zabitím tejto hrozby získal svoje body,“ povedal Hamilton na Summite o budúcich bojových vzdušných a vesmírnych schopnostiach. v Londýne. „Čo to teda urobilo? To zabilo operátora. Zabilo to operátora, pretože táto osoba mu bránila dosiahnuť svoj cieľ."

Keď bola táto možnosť odstránená, AI namiesto toho zaútočila na komunikačné spojenie operátora, aby im zabránila brániť jeho misii.

Hovorca USAF rýchlo poprel, že by k takémuto testu niekedy došlo, a naznačil, že Hamiltonov príbeh bol skôr neoficiálny ako doslovný... čo samozrejme bolo.

Hamilton sám rýchlo ustúpil a v aktualizácii uviedol, že udalosti, ktoré opísal, nie sú vojnovou hrou, simuláciou alebo cvičením, boli výsledkom „experimentu myšlienok“ a že sa nesprávne vyjadril, keď to označil za simulovaný test.

"Nikdy sme tento experiment nerobili a ani by sme to nepotrebovali, aby sme si uvedomili, že ide o hodnoverný výsledok," uviedol Hamilton. Tvrdil, že scenár je platným zobrazením potenciálnych nebezpečenstiev AI.

Aj keď sa tomuto stiahnutiu tiež dostalo nejakého pokrytia, bolo už príliš neskoro. Podľa starého príslovia „lož obíde svet, zatiaľ čo pravda si obúva topánky“, a to platí viac ako kedykoľvek predtým vo veku sociálnych médií. Oprava sa prinajlepšom dostane k zlomku ľudí, ktorí počuli pôvodný príbeh.

Problém je v tom, že rozprávanie o výtvoroch, ktoré sa obracajú na svojho tvorcu, je neuveriteľne príťažlivé. Frankenstein od Mary Shelley sa často považuje za klasický príklad tohto trópu – aj keď to nie je skutočný príbeh knihy, táto verzia sa stala súčasťou všeobecného povedomia. Počítače, AI a roboty, ktoré sa pokazia, sú jedným z najlepšie zaužívaných klišé v SF, od HAL 9000 v roku 2001 po Skynet's Terminators, Matrix, Westworld, Blade Runner a tak ďalej.

Zdá sa, že tento príbeh je populárny, pretože ľudia ako srdce milujú strašidelné príbehy a nič nie je strašidelnejšie ako neznáme. Pre tých, ktorí tomu nerozumejú, sa AI javí ako takmer magická bytosť s vlastnou vôľou a inteligenciou, ktorá by nás mohla ohroziť. Kým tomu ľudia veria, hororové príbehy budú prichádzať.

„Širšie vzdelávanie o obmedzeniach AI môže pomôcť, ale naša láska k apokalyptickým hororovým príbehom môže stále zvíťaziť,“ povedala výskumníčka Beth Singlerová pre New Scientist.

Takéto hororové príbehy sťažujú vývoj a použitie zbraní ovládaných robotom alebo AI. Aj keď politické vedenie tejto technológii rozumie, stále si musí získať dôveru medzi tými, ktorí s ňou budú pracovať.

„Ak vojaci nedôverujú systému, nebudú ho chcieť používať,“ povedal pre Forbes konzultant pre národnú bezpečnosť Zachary Kallenborn.

Takéto príbehy boli možno faktorom dlhých oneskorení americkej armády pri nasadzovaní ozbrojených diaľkovo ovládaných pozemných robotov, zatiaľ čo letectvo lietalo s ozbrojenými dronmi už desaťročia. Keď boli v roku 2007 nasadení traja roboti SWORDS do Iraku, boli privedení späť bez toho, aby videli akciu kvôli hláseným prípadom „neprikázaných pohybov“. Médiá to zmenili na MEČE, ktoré otáčajú zbraňami a vyhrážajú sa streľbou ako Robocopov ED 209; Svetská realita sa scvrkla do uvoľneného drôtu a jedného prípadu, keď sa robot skĺzol dozadu zo svahu, keď vyhorel motor.

Program ozbrojených robotov americkej armády zostal odvtedy v limbu, zatiaľ čo Rusko v akcii používalo ozbrojené (diaľkovo ovládané) roboty Uran-9.

Ďalší titulok z roku 2007, Robot Cannon Kills 9, Wounds 14, opísal incident, pri ktorom sa počítačom riadené juhoafrické protilietadlové delo zrejme vymklo spod kontroly a začalo strieľať do ľudí, a zastavili ho až vtedy, keď ho jeden odvážny vojak deaktivoval. Pravda, o deň alebo dva neskôr, bola opäť nudnejšia: zbraň bola na konci radu niekoľkých zbraní a náhodne vystrelila jednu dávku 15 až 20 rán v rade zbraní, čo spôsobilo veľký počet obetí.

Armáda bude pokračovať v napredovaní s AI, podobne ako projekt letectva na pridanie umelej inteligencie k sile dronov Reaper. Takéto projekty vždy spôsobia prudký nádych v médiách, verejnosti a zákonodarcoch, ktorých si zvolia. Všadeprítomný príbeh o Frankensteinovi/Terminátorovi, ktorý prehlušuje diskusiu o skutočných problémoch spojených s autonómnymi zbraňami, ako sú etické úvahy, zodpovednosť, znižovanie prahov, algoritmická zaujatosť a „digitálna dehumanizácia“.

Ako bolo často poznamenané, väčšina pilotov nemá rada drony, najmä ak sú lepší ako ľudia. Plukovník Tucker, stíhací pilot, možno nie je tak celkom zástancom, ktorého piloti AI potrebujú. Príbeh o nečestných dronoch sa stane súčasťou folklóru AI a Tuckerove slová mohli prispieť k tomu, že vývoj AI bude v letectve kontrolovaný, regulovaný a obmedzený. Simulovaný útok dronu sa v skutočnosti nikdy nestal, ale to nemusí byť také dôležité ako to, čo si ľudia pamätajú,

Zdroj: https://www.forbes.com/sites/davidhambling/2023/06/04/no-a-rogue-us-air-force-drone-did-not-just-try-to-kill-its- operátor-ale-mohol-ako-dobre-urobil/