Ako Sa Učili Neurónové Siete Na Falšovanie Spravodajského Obrázka - Alternatívny Pohľad

Obsah:

Ako Sa Učili Neurónové Siete Na Falšovanie Spravodajského Obrázka - Alternatívny Pohľad
Ako Sa Učili Neurónové Siete Na Falšovanie Spravodajského Obrázka - Alternatívny Pohľad

Video: Ako Sa Učili Neurónové Siete Na Falšovanie Spravodajského Obrázka - Alternatívny Pohľad

Video: Ako Sa Učili Neurónové Siete Na Falšovanie Spravodajského Obrázka - Alternatívny Pohľad
Video: BOSS Indicator v4 Štatistický indikátor pre Binárne Opcie (Slovenské Titulky) 2024, Apríl
Anonim

Na vytvorenie falzifikátov sa používajú systémy a technológie umelej inteligencie na generovanie falzifikátov videa a zvuku.

Na vytvorenie „individuálneho“spravodajského obrazu pre kohokoľvek z nás a na falšovanie mediálnych správ v ňom vybraných je dnes dostatočné úsilie jedného programátora. Izvestia o tom informovali odborníci na umelú inteligenciu a kybernetickú bezpečnosť. Nedávno odhadovali, že si to vyžaduje prácu viacerých tímov. Takéto zrýchlenie bolo možné vďaka vývoju technológií pre útoky na neurónové siete a generovanie zvukových a obrazových falzifikátov pomocou programov na vytváranie „hlbokých falzifikátov“. Noviny Izvestia nedávno prešli podobným útokom, keď tri líbyjské spravodajské portály uverejnili správu, ktorá sa údajne objavila v jednom z problémov. Podľa odborníkov je možné do 3 až 5 rokov očakávať inváziu robotických manipulátorov, ktoré automaticky dokážu vytvoriť veľa falzifikátov.

Odvazny novy svet

Existuje stále viac projektov, ktoré prispôsobujú informačný obraz vnímaniu konkrétnych používateľov. Jedným z príkladov ich práce bola nedávna akcia troch líbyjských portálov, ktoré 20. novembra uverejňovali správy údajne vytlačené v Izvestii. Tvorcovia falzifikátu upravili titulnú stranu denníka a zverejnili na ňom správu o rokovaniach medzi poľným maršalom Khalifom Haftarom a predsedom vlády vlády pre národnú dohodu (PNS) Fayezom Sarrajom. K falošným písmom v písaní Izvestia bola pripojená fotografia dvoch vodcov vytvorená v máji 2017. Štítok s logom publikácie bol vyrezaný zo skutočného uverejneného vydania z 20. novembra a všetkých ostatných textov na stránke od vydania z 23. októbra.

Z pohľadu odborníkov je možné v dohľadnej budúcnosti takéto falšovanie vykonávať automaticky.

Image
Image

„Technológie umelej inteligencie sú teraz úplne otvorené a zariadenia na príjem a spracovanie údajov sú miniaturizujúce a lacnejšie,“povedal Izvestia Yuri Vilsiter, doktor fyzikálnych a matematických vied, profesor Ruskej akadémie vied, vedúci oddelenia „GosNIIAS“FSUE. - Preto je veľmi pravdepodobné, že v blízkej budúcnosti ani štát a veľké korporácie, ale jednoducho súkromné osoby, budú môcť nasmerovať a špehovať nás a budú manipulovať s realitou. V nadchádzajúcich rokoch bude možné pomocou analýzy preferencií používateľov ovplyvniť ho prostredníctvom spravodajských kanálov a veľmi šikovných falzifikátov.

Propagačné video:

Podľa Yuriho Vilsitera technológie, ktoré sa dajú použiť na takýto zásah do mentálneho prostredia, už existujú. Teóriu je, že invázia robotov sa dá očakávať o niekoľko rokov. Limitujúcim momentom môže byť potreba zhromaždiť veľké databázy príkladov reakcií reálnych ľudí na umelé podnety so sledovaním dlhodobých dôsledkov. Takéto sledovanie bude pravdepodobne vyžadovať niekoľko ďalších rokov výskumu, kým sa budú dôsledne získavať cielené útoky.

Vision útok

Alexei Parfentiev, vedúci analytického oddelenia vo SearchInforme, súhlasí s Yuri Vilsiter. Podľa neho odborníci už predpovedajú útoky na neurónové siete, aj keď teraz takéto príklady prakticky neexistujú.

- Vedci spoločnosti Gartner sa domnievajú, že do roku 2022 bude 30% všetkých kybernetických útokov zamerané na poškodenie údajov, na ktorých trénuje nervová sieť, a na krádež hotových modelov strojového učenia. Napríklad bezpilotné vozidlá môžu potom náhle začať zamieňať chodcov za iné predmety. A nebudeme hovoriť o finančných alebo reputačných rizikách, ale o živote a zdraví obyčajných ľudí.

Útoky na systémy počítačového videnia sa v súčasnosti uskutočňujú ako súčasť výskumu. Účelom takýchto útokov je prinútiť neurónovú sieť, aby v obraze zistila, čo tam nie je. Alebo naopak nechápem, čo sa plánovalo.

Image
Image

„Jednou z aktívne sa rozvíjajúcich tém v oblasti odbornej prípravy neurónových sietí sú tzv. Kontradiktórne útoky („ kontradiktórne útoky “- Izvestia),” vysvetlil Vladislav Tushkanov, webový analytik spoločnosti Kaspersky Lab. - Vo väčšine prípadov sú zamerané na systémy počítačového videnia. Aby ste mohli takýto útok vykonať, musíte mať vo väčšine prípadov úplný prístup k neurónovej sieti (tzv. Útoky typu „white-box“) alebo k výsledkom jej práce (útoky typu „black-box“). Neexistujú žiadne metódy, ktoré môžu klamať akýkoľvek systém počítačového videnia v 100% prípadov. Okrem toho už boli vytvorené nástroje, ktoré vám umožňujú testovať odolnosť neurónových sietí voči nepriaznivým útokom a zvýšiť ich odolnosť.

V priebehu takého útoku sa útočník pokúša nejakým spôsobom zmeniť rozpoznaný obraz tak, aby neurónová sieť nefungovala. Na fotografiu sa často vyskytuje šum, podobný hluku, ktorý sa vyskytuje pri fotografovaní v slabo osvetlenej miestnosti. Osoba si zvyčajne takéto rušenie nevšimne, ale neurónová sieť začne zlyhávať. Aby však útočník mohol vykonať takýto útok, potrebuje prístup k algoritmu.

Podľa generálneho riaditeľa spoločnosti Neuroset Ashmanov Stanislav Ashmanov v súčasnosti neexistujú žiadne metódy na riešenie tohto problému. Táto technológia je navyše k dispozícii každému: priemerný programátor ju môže použiť stiahnutím potrebného softvéru s otvoreným zdrojom zo služby Github.

Image
Image

- Útok na neurónovú sieť je technika a algoritmy na klamanie neurónovej siete, ktoré spôsobujú nepravdivé výsledky a v skutočnosti ich porušujú ako zámok dverí, - verí Ashmanov. - Napríklad, teraz je pomerne ľahké presvedčiť systém rozpoznávania tváre, že nie ste vy, ale Arnold Schwarzenegger pred ním - to sa dosahuje zmiešaním prísad, ktoré nie sú pre ľudské oko viditeľné, do údajov vstupujúcich do neurónovej siete. Rovnaké útoky sú možné aj v systémoch rozpoznávania a analýzy reči.

Odborník je presvedčený, že sa to len zhorší - tieto technológie sa rozšírili na masy, podvodníci ich už používajú a neexistujú prostriedky na ich ochranu. Pretože neexistuje automatická ochrana proti automatizovanej tvorbe falzifikátov videa a zvuku.

Hlboké falzifikáty

Deepfake technológie založené na Deep Learning (technológie hlbokého učenia sa neurónových sietí. - Izvestia) už predstavujú skutočnú hrozbu. Video alebo audio falzifikáty sa vytvárajú úpravou alebo prekrývaním tvárí slávnych ľudí, ktorí údajne vyslovujú potrebný text a zohrávajú nevyhnutnú úlohu v deji.

„Deepfake vám umožňuje nahradiť pohyby pier a ľudskú reč videom, čo vytvára pocit realizmu toho, čo sa deje,“hovorí Andrey Busargin, riaditeľ odboru inovatívnej ochrany značky a duševného vlastníctva v Group-IB. - Falošné celebrity „ponúkajú“používateľom sociálnych sietí účasť na získavaní cenných cien (smartfóny, autá, sumy peňazí) atď. Odkazy z týchto videí často vedú k podvodným a phishingovým webom, na ktorých sú používatelia požiadaní o zadanie osobných údajov vrátane podrobností o bankových kartách. Takéto systémy predstavujú hrozbu pre bežných používateľov aj pre verejnosť, ktorí sú uvedení v reklamách. Vďaka tomuto druhu šenanigánov sa obrázky celebrít spájajú s podvodmi alebo reklamným tovarom.a práve tu narazíme na osobné poškodenie značky, “hovorí.

Image
Image

Ďalšia hrozba je spojená s používaním „falošných hlasov“na telefónne podvody. Napríklad v Nemecku používali počítačoví zločinci hlasové preháňanie, aby vedúceho dcérskej spoločnosti v Spojenom kráľovstve urýchlene previedli 220 000 EUR na účet maďarského dodávateľa pri telefonickom rozhovore, ktorý vystupuje ako manažér spoločnosti. Vedúci britskej firmy mal podozrenie na trik, keď jeho „šéf“požiadal o druhý peňažný príkaz, ale hovor prišiel z rakúskeho čísla. Dovtedy bola prvá tranža už prevedená na účet v Maďarsku, odkiaľ boli peniaze vybrané do Mexika.

Ukazuje sa, že súčasné technológie umožňujú vytvoriť individuálny spravodajský obrázok plný falošných správ. Navyše bude čoskoro možné rozlíšiť falzifikáty od skutočného videa a zvuku iba pomocou hardvéru. Podľa odborníkov nie je pravdepodobné, že opatrenia zakazujúce rozvoj neurónových sietí budú účinné. Preto čoskoro budeme žiť vo svete, v ktorom bude potrebné neustále kontrolovať všetko.

"Musíme sa na to pripraviť a musíme to prijať," zdôraznil Yuri Vilsiter. - Ľudstvo nie je prvýkrát, keď prechádza z jednej reality do druhej. Náš svet, spôsob života a hodnoty sa radikálne líšia od sveta, v ktorom naši predkovia žili pred 60 000 rokmi, 5 000 rokmi, 2 000 rokmi a dokonca 200 až 100 rokmi. V blízkej budúcnosti bude človek do značnej miery zbavený súkromia, a preto je nútený neskrývať nič a konať čestne. Zároveň nemožno v okolitej realite a vo vlastnej osobnosti vziať do úvahy vieru, všetko sa bude musieť spochybňovať a neustále znovu kontrolovať. Bude však táto budúca realita hrozná? Nie. Bude to jednoducho úplne iné.

Anna Urmantseva