FBI varuje pred AI Deepfake vydieračskými podvodmi

Schopnosti generatívnej AI vytvárať realistické obrázky sú pôsobivé, ale americký Federálny úrad pre vyšetrovanie tvrdí, že zločinci používajú deepfakes na zacielenie na obete vydierania.

"FBI naďalej dostáva správy od obetí vrátane maloletých detí a dospelých, ktorí s tým nesúhlasili, ktorých fotografie alebo videá boli pozmenené na explicitný obsah," uviedla agentúra v pondelok vo vyhlásení PSA.

FBI tvrdí, že orgány činné v trestnom konaní dostali v minulom roku viac ako 7,000 XNUMX správ o online vydieraní zameraných na neplnoleté osoby, pričom od apríla vzrástol počet obetí takzvaných „vydieračských podvodov“ využívajúcich deepfakes.

Deepfake je čoraz bežnejší typ video alebo audio obsahu vytvoreného pomocou umelej inteligencie, ktorý zobrazuje falošné udalosti, ktoré je čoraz ťažšie rozpoznať ako falošné, vďaka generatívnym platformám AI, ako je Midjourney 5.1 a DALL-E 2 od OpenAI.

V máji sa stal virálnym deepfake generálneho riaditeľa Tesly a Twitteru Elona Muska s cieľom podviesť kryptoinvestorov. Video zdieľané na sociálnych sieťach obsahovalo zábery Muska z predchádzajúcich rozhovorov, upravené tak, aby zodpovedali podvodu.

Deepfakes nie sú všetky zlomyseľné, deepfake pápeža Františka v bielej bunde Balenciaga sa stal virálnym začiatkom tohto roka a nedávno sa deepfakes generované AI použili aj na oživenie obetí vrážd.

Vo svojich odporúčaniach FBI varovala pred platením akéhokoľvek výkupného, ​​pretože to nezaručuje, že zločinci aj tak nezverejnia deepfake.

FBI tiež odporúča opatrnosť pri zdieľaní osobných informácií a obsahu online, vrátane používania funkcií ochrany osobných údajov, ako je nastavenie súkromných účtov, sledovanie online aktivity detí a sledovanie nezvyčajného správania ľudí, s ktorými ste v minulosti komunikovali. Agentúra tiež odporúča vykonávať časté vyhľadávanie osobných informácií a informácií o členoch rodiny online.

Medzi ďalšie agentúry, ktoré bijú na poplach, patrí Federálna obchodná komisia USA, ktorá varovala, že zločinci používajú deepfake na oklamanie nič netušiacich obetí, aby poslali peniaze po vytvorení zvukového deepfake priateľa alebo člena rodiny, ktorý hovorí, že boli unesení.

„Umelá inteligencia už nie je pritiahnutou myšlienkou zo sci-fi filmu. Žijeme s tým, tu a teraz. Podvodník by mohol použiť AI na naklonovanie hlasu vášho milovaného,“ uviedla FTC v marcovom upozornení pre spotrebiteľov a dodala, že všetko, čo zločinec potrebuje, je krátky zvukový záznam hlasu člena rodiny, aby nahrávka znela skutočne.

FBI zatiaľ nereagovala dešifrovať je žiadosť o komentár.

Majte prehľad o krypto správach, dostávajte denné aktualizácie do svojej doručenej pošty.

Zdroj: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams