Aké sú aktualizované zásady Pentagonu týkajúce sa robotov zabijakov?

Pentagon vydal vyhlásenie aktualizovať svoju smernicu 3000.09, ktorá pokrýva to, čo označujú Autonómia v zbraňových systémoch a iní volajú 'zabijaci roboti.' Súčasné drony ako letectvo a CIA MQ-9 Žacie stroje sú ovládané diaľkovým ovládaním: človek sedí pred obrazovkou s videom identifikuje ciele na zemi vzdialené tisíce kilometrov, umiestni ich do zameriavacieho kríža a uvoľní a Raketa Hellfire alebo iná zbraň. Autonómne zbrane sú iné: vyberajú si svoje vlastné ciele bez akéhokoľvek ľudského zásahu. Potrebné sú jasné pravidlá o tom, kedy a ako sa môžu používať, a nová smernica ich približuje o krok bližšie.

Pred desiatimi rokmi, keď bola vydaná prvá verzia 3000.09, vyzerali autonómne zbrane ako sci-fi. Teraz sú veľmi skutočné. Tvrdila to OSN Bezpilotné lietadlá dodané z Turecka autonómne útočili na ciele v Líbyi v roku 2020 a Rusko teraz rozmiestňuje potulujúcu sa muníciu na Ukrajine s autonómna schopnosť.

Mnohí aktivisti, ako napr Kampaň na zastavenie robotov zabijakovchcú úplný zákaz autonómnych zbraní a trvajú na tom, že akákoľvek vzdialená zbraň zostane pod kontrolou zmysluplná ľudská kontrola po celú dobu. OSN diskutuje o tom, ako na to ovládať takéto zbrane mnoho rokov.

Ako však objasňuje nová smernica, Pentagon sa drží inej línie.

„DoD sa dôsledne stavalo proti štandardu politiky „zmysluplnej ľudskej kontroly“, pokiaľ ide o autonómne systémy aj systémy AI,“ Gregory Allen, riaditeľ projektu o riadení AI na Centrum strategických a medzinárodných štúdií, povedal mi. „Preferovaným termínom DoD je „primeraná úroveň ľudského úsudku“, čo odráža skutočnosť, že v niektorých prípadoch – napríklad autonómne sledovacie lietadlá a niektoré druhy autonómnych kybernetických zbraní – môže byť primeraná úroveň ľudskej kontroly malá alebo žiadna. .“

Aké autonómne zbrane by boli povolené za akých okolností? Allen sa domnieva, že predchádzajúca verzia smernice bola taká nejasná, že odrádzala od akéhokoľvek vývoja v tejto oblasti.

„Zmätok bol taký rozšírený – a to aj medzi niektorými vedúcimi predstaviteľmi ministerstva obrany –, že úradníci sa zdržali vývoja niektorých systémov, ktoré boli nielen povolené politikou, ale boli tiež výslovne vyňaté z požiadavky vyššieho hodnotenia,“ hovorí Allen.

Ani jedna zbraň nebola predložená do procesu preskúmania pre autonómne zbrane stanovené v origináli 3000.09 za desať rokov od jej zverejnenia.

Allen napísal esej na toto pre CSIS minulý rok opísal štyri oblasti, ktoré si vyžadovali prácu – formálne definovanie autonómnych zbraňových systémov, vyjadrenie toho, čo pre politiku znamená „umožnené umelou inteligenciou“, ako bude proces revízie zvládať preškolenie modelov strojového učenia a objasnenie toho, aké typy zbraní musia byť potrebné. prejsť náročným procesom kontroly.

„DoD ich všetky implementovalo,“ hovorí Allen.

V zásade by to teda malo zabezpečiť to, čo DoD označuje ako „silný a pokračujúci záväzok byť transparentným globálnym lídrom pri vytváraní zodpovedných politík týkajúcich sa vojenského využitia autonómnych systémov“.

Existujú však niektoré dodatky, ktoré by sa mohli považovať za medzery, ako napríklad výnimka z vyššieho preskúmania pre autonómne zbrane na obranu bezpilotných lietadiel, ktoré necielia na ľudí („protimateriálové zbrane“) a ktoré by však mohli cieliť na rakety, iné bezpilotné lietadlá a potenciálne ďalšie systémy.

"Slovo 'obrana' robí veľa práce," Zak Kallenborn, povedal mi odborník na politiku na Schar School of Policy and Government na Univerzite Georgea Masona. "Ak dron operuje na nepriateľskom území, takmer akúkoľvek zbraň možno považovať za "obranu" platformy."

Kallenborn tiež poznamenáva, že aj keď sa efektívne autonómne zbrane, ako sú nášľapné míny, používajú už viac ako storočie, krajina sa rýchlo mení v dôsledku pokroku v AI a konkrétneho strojového učenia. Tie dali vzniknúť systémom, ktoré sú veľmi schopné, ale technicky krehký – keď zlyhajú, zlyhávajú veľkolepo spôsobom, akým by to neurobil napríklad žiadny človek pomýlil si korytnačku s puškou.

„Autonómia prostredníctvom AI si rozhodne zaslúži viac pozornosti, vzhľadom na krehkosť a nedostatok vysvetliteľnosti v súčasnosti dominujúcich prístupov,“ hovorí Kallenborn.

Aktualizácia nie je veľká. Ukazuje to však pokračujúci záväzok Pentagonu vyvíjať účinné autonómne zbrane a vieru, ktorú môžu splniť Medzinárodné humanitárne právo — rozlišovanie civilistov od vojenského personálu, snaha vyhnúť sa poškodzovaniu civilistov a používať len primeranú a potrebnú silu.

Aktivisti veria, že AI nebude mať potrebné pochopenie na to, aby mohla robiť morálne úsudky v čase vojny, a riskuje, že vytvorí svet, kde je vojna automatizovaná a ľudia už nie sú pod kontrolou. Iní veria, že americká armáda bude prekonali súperi s autonómnymi zbraňami pokiaľ AI nie je začlenená na taktickej úrovni, a to príliš veľa ľudského zapojenia spomaľuje vojenské roboty.

Tento argument bude pravdepodobne pokračovať, aj keď sa začnú objavovať autonómne zbrane, a výsledky budú pozorne sledované. Či tak alebo onak, zdá sa, že zabijaci roboti prichádzajú.

Zdroj: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/