Zneužitie umelej inteligencie v podobe “deepfakes” videí

Umelá inteligencia by sa mohla stať novou zbraňou v informačnej vojne proti USA a západnej demokracii všeobecne. Nové technológie, dostupné na internete, umožňujú šíriť videá s vyobrazením reálnych ľudí hovoriac výroky, ktoré v skutočnosti nikdy nezazneli.

Zatiaľ sa také vyobrazenia s politickým obsahom vo verejnom priestore príliš neobjavujú, ale podľa expertov je len otázkou kedy sa táto technológia zneužije. Už vlani sa produkcia takzvaných “deepfakes”, teda zvlášť ľstivých podvodov, objavila na pornografických serveroch alebo na komunitnej sieti Reddit. Herci z filmov pre dospelých tam prezentujú svoje výkony s tvárami známych celebrít, informuje CTVNEWS.

 

Príklad falošného videa generovaného počítačom

 


“Očakávame, že v Spojených štátoch sa táto technika objaví v novembrových kongresových voľbách a v prezidentských voľbách v roku 2020,” myslí si Hany Farid, expert na digitálne technológie zo štátu New Hampshire. Svet vstupuje do éry, kedy nebude isté nič, čo človek vidí. Ľudia potom budú za podvod považovať i videá zobrazujúce skutočnosť.

Metóda “deepfakes” využíva postupov takzvaného hlbokého učenia (deep learning), čo je forma umelej inteligencie. Počítač dostane veľký objem algoritmov, teda vzorových podkladových súborov vo forme obrázkov a zvukov so zachytením cieľovej osoby. S ich využitím sa naučia umelo vytvárať výrazy jej tváre, pohyby tela, spôsob a intonáciu reči. Ak má stroj dostatok podkladov, môže vyrobiť video s vyobrazením osoby hovoriacej prakticky o čomkoľvek, chovajúc sa akokoľvek.

Podľa amerického senátora Marka Rubia je ľahké si predstaviť, že sa tejto techniky zmocnia cudzie štáty s cieľom poškodiť USA. “Štáty nedokážu odolať, aby túto technológiu nevyužili k manipulácii s verejnou mienkou, k zmäteniu verejnosti a podkopaniu dôvery v demokratické inštitúcie,” varoval Andrew Grotto zo Stanfordskej univerzity.

Súvisiace články

Používame cookies aby sme pre vás zabezpečili ten najlepší zážitok z našich webových stránok. OK Viac info

Cookies