3 dôvody, prečo bude vaša organizácia potrebovať externých hodnotiteľov algoritmov

Autor Satta Sarmah-Hightower

Obchodní lídri vytláčajú z umelej inteligencie (AI) všetku hodnotu, ktorú môžu. Zistila to štúdia KPMG z roku 2021 Väčšina vedúcich predstaviteľov vlád, priemyselnej výroby, finančných služieb, maloobchodu, vedy o živote a zdravotníctva tvrdí, že AI je v ich organizáciách aspoň mierne funkčná.. Štúdia tiež zistila, že polovica respondentov tvrdí, že ich organizácia urýchlila prijatie AI v reakcii na pandémiu Covid-19. V organizáciách, kde bola zavedená AI, najmenej polovica tvrdí, že technológia prekonala očakávania.

Algoritmy AI sú čoraz viac zodpovedné za rôzne dnešné interakcie a inovácie – od personalizovaných odporúčanie produktu a zákaznícky servis skúsenosti s bankami rozhodnutia o úveroch a dokonca aj reakcia polície.

Ale napriek všetkým výhodám, ktoré ponúkajú, prinášajú algoritmy AI veľké riziká, ak nie sú efektívne monitorované a hodnotené z hľadiska odolnosti, spravodlivosti, vysvetliteľnosti a integrity. S cieľom pomôcť obchodným lídrom s monitorovaním a hodnotením AI štúdia uvedená vyššie ukazuje, že a Rastúci počet obchodných lídrov chce, aby vláda regulovala AI s cieľom umožniť organizáciám investovať do správnych technológií a obchodných procesov. Pre potrebnú podporu a dohľad je rozumné zvážiť externé hodnotenia ponúkané poskytovateľom služieb so skúsenosťami s poskytovaním takýchto služieb. Tu sú tri dôvody prečo.

1. Algoritmy sú „čierne skrinky“

Algoritmy umelej inteligencie, ktoré sa učia z údajov pri riešení problémov a optimalizácii úloh, robia systémy inteligentnejšími a umožňujú im zhromažďovať a generovať poznatky oveľa rýchlejšie, než by to kedy dokázali ľudia.

Niektoré zainteresované strany však považujú tieto algoritmy za „čierne skrinky“, vysvetľuje Drew Rosen, výkonný riaditeľ auditu v KPMG, poprednej firme poskytujúcej profesionálne služby. Konkrétne niektoré zainteresované strany nemusia rozumieť tomu, ako algoritmus dospel k určitému rozhodnutiu, a preto si nemusia byť istí správnosťou alebo presnosťou tohto rozhodnutia.

"Výsledky získané z algoritmu môžu byť náchylné na zaujatosť a nesprávnu interpretáciu výsledkov," hovorí Rosen. "To môže tiež viesť k určitým rizikám pre subjekt, pretože využíva tieto výsledky a zdieľa ich s verejnosťou a svojimi zainteresovanými stranami."

Algoritmus, ktorý používa chybné údaje, je napríklad v najlepšom prípade neúčinný a v najhoršom prípade škodlivý. Ako to môže vyzerať v praxi? Zvážte chatbota založeného na AI, ktorý používateľom poskytuje nesprávne informácie o účte, alebo automatický jazykový prekladový nástroj, ktorý nepresne prekladá text. Oba prípady môžu viesť k vážnym chybám alebo nesprávnym výkladom pre vládne subjekty alebo spoločnosti, ako aj pre zložky a zákazníkov, ktorí sa spoliehajú na rozhodnutia prijaté týmito algoritmami.

Ďalším prispievateľom k problému čiernej skrinky je, keď do vývoja modelov AI prenikne inherentná zaujatosť, čo môže spôsobiť zaujaté rozhodovanie. Napríklad poskytovatelia úverov čoraz častejšie využívajú AI na predpovedanie úverovej bonity potenciálnych dlžníkov, aby mohli prijímať rozhodnutia o úveroch. Riziko však môže vzniknúť, keď kľúčové vstupy do AI, ako napríklad kreditné skóre potenciálneho dlžníka, má vecnú chybu, čo vedie k tomu, že týmto jednotlivcom budú zamietnuté pôžičky.

Zdôrazňuje to potrebu externého hodnotiteľa, ktorý môže slúžiť ako nestranný hodnotiteľ a poskytovať cielené hodnotenie na základe prijatých kritérií relevantnosti a spoľahlivosti historických údajov a predpokladov, ktoré riadia algoritmus.

2. Zainteresované strany a regulačné orgány požadujú transparentnosť

V roku 2022 neexistovali žiadne aktuálne požiadavky na podávanie správ o zodpovednej AI. Rosen však hovorí, „rovnako ako riadiace orgány zaviedli reguláciu ESG [environmentálne, sociálne a vládne] správy o určitých metrikách ESG, je len otázkou času, kedy sa dočkáme dodatočných požiadaviek na podávanie správ o regulácii pre zodpovednú AI.“

V skutočnosti s účinnosťou od 1. januára 2023 v New Yorku Miestny zákon 144 vyžaduje, aby sa pred použitím automatizovaného nástroja na rozhodovanie o zamestnaní vykonal audit zaujatosti.

A na federálnej úrovni, Národný zákon o iniciatíve umelej inteligencie z roku 2020– ktorý stavia na a 2019 vykonávacie nariadenie—zameriava sa na technické normy a usmernenia AI. Okrem toho, Algorithmic Accountability Act môže vyžadovať posúdenie vplyvu automatizovaných rozhodovacích systémov a rozšírených kritických rozhodovacích procesov. A v zámorí, Zákon o umelej inteligencii bol navrhnutý a ponúka komplexný regulačný rámec s konkrétnymi cieľmi v oblasti bezpečnosti AI, dodržiavania predpisov, riadenia a dôveryhodnosti.

Vďaka týmto posunom sú organizácie pod mikroskopom riadenia. Hodnotiteľ algoritmov môže poskytnúť také správy, ktoré sa zaoberajú regulačnými požiadavkami a zvyšujú transparentnosť zainteresovaných strán, pričom sa vyhýbajú riziku, že zainteresované strany nesprávne interpretujú alebo sú omyl podľa výsledkov hodnotenia.

3. Spoločnosti profitujú z dlhodobého riadenia rizík

Steve Camara, partner v KPMG v oblasti technologického zabezpečenia, predpovedá, že investície do AI budú naďalej rásť, keďže subjekty budú pokračovať v automatizácii procesov, vyvíjajú inovácie, ktoré zlepšujú zákaznícku skúsenosť a distribuujú vývoj AI medzi obchodné funkcie. Aby organizácie zostali konkurencieschopné a ziskové, budú potrebovať efektívne kontroly, ktoré nielenže riešia okamžité nedostatky AI, ale tiež znižujú akékoľvek dlhodobé riziká spojené s obchodnými operáciami poháňanými AI.

Tu nastupujú externí hodnotitelia ako dôveryhodný a dôvtipný zdroj. Keďže organizácie čoraz viac prijímajú integritu AI ako podporu podnikania, partnerstvo sa môže stať menej ad hoc službou a viac konzistentnou spoluprácou, vysvetľuje Camara.

„Vidíme cestu vpred, kde bude potrebné, aby existoval trvalý vzťah medzi organizáciami, ktoré neustále vyvíjajú a prevádzkujú AI, a objektívnym externým hodnotiteľom,“ hovorí.

Pohľad na to, čo príde ďalej

V budúcnosti môžu organizácie využívať externé hodnotenia na cyklickejšej báze, napríklad pri vývoji nových modelov, prijímaní nových zdrojov údajov, integrácii riešení od dodávateľov tretích strán alebo navigácii v nových požiadavkách na dodržiavanie predpisov.

Keď sú nariadené dodatočné požiadavky na reguláciu a súlad, externí hodnotitelia môžu byť schopní poskytnúť služby na priame vyhodnotenie toho, ako dobre organizácia nasadila alebo použila AI vo vzťahu k týmto požiadavkám. Títo hodnotitelia by potom mali najlepšiu pozíciu na zdieľanie výsledkov hodnotenia jasným a konzistentným spôsobom.

Ak chce organizácia využiť technológiu a zároveň sa chrániť pred jej obmedzeniami, musí vyhľadať externých hodnotiteľov, ktorí jej poskytnú správy, na ktoré sa potom môže spoľahnúť pri preukázaní väčšej transparentnosti pri nasadzovaní algoritmov. Odtiaľ môže organizácia aj zainteresované strany lepšie pochopiť silu AI – a jej obmedzenia.

Zdroj: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/