Aké Nebezpečenstvá Nervových Sietí Podceňujeme? - Alternatívny Pohľad

Obsah:

Aké Nebezpečenstvá Nervových Sietí Podceňujeme? - Alternatívny Pohľad
Aké Nebezpečenstvá Nervových Sietí Podceňujeme? - Alternatívny Pohľad
Anonim

Stretli ste sa niekedy s človekom na ulici, ktorý by bol taký ako vy? Oblečenie, tvár, chôdza, spôsob komunikácie, návyky sú úplne rovnaké ako vaše. Je to ako skenovanie a tlač na tlačiarni. Znie to trochu strašidelne, však? Teraz si predstavte, že ste videli video, v ktorom taký človek hovorí o sebe. V najlepšom prípade sa pokúsite zapamätať si, keď ste kráčali tak, že ste si nič nepamätali, ale dalo by sa to povedať na fotoaparáte. Aj keď to všetko znie ako jednoduché uvažovanie, ale technológia je už pri vytváraní takýchto ľudí veľmi blízko. Už existujú, ale čoskoro ich bude oveľa viac.

Odkiaľ falošný pochádza?

Teraz už existuje priveľa vecí, ktoré sa bežne nazývajú falzifikáty. Sú všade. Nájdete ich na fotografiách, v správach, vo výrobe tovaru av informačných službách. Je ľahšie povedať, kde nie sú žiadne fenomény sprevádzané týmto slovom. Aj keď s nimi môžete bojovať. Môžete študovať pôvod fotografie, skontrolovať charakteristické rysy značkového produktu z falošných a znova skontrolovať správy. Správy sú však samostatnou témou.

V súčasnej dobe spotrebiteľ obsahu nechce čakať a vyžaduje okamžitú produkciu od jeho tvorcu, niekedy sa ani nestará o kvalitu, hlavná vec je rýchlo. Tu vznikajú situácie, keď niekto niečo povedal, a ostatní ho bez kontroly skontrolovali a vzali zo svojich webových stránok a novín. V niektorých prípadoch to trvá dlho, kým sa táto lopta otočí späť a preukáže sa, že sa všetko mýli.

Nemá zmysel vysvetľovať, prečo sa to všetko robí. Na jednej strane sú len takí, ktorí sa chcú tejto situácii smiať, na druhej strane tí, ktorí naozaj nevedeli, že sa mýlia. Samostatné miesto, približne v strede, je obsadené tými, pre ktorých je veľmi výhodné profitovať. Môžu to byť záujmy vplyvu na rôznych úrovniach vrátane politickej. Toto je niekedy účelom dosiahnutia zisku. Napríklad výsev paniky na akciovom trhu a vykonávanie výnosných transakcií s cennými papiermi. Často je to však kvôli nepriateľstvu voči človeku (spoločnosti, produktu atď.), Aby ho potlačilo. Jednoduchým príkladom je „upustenie“v hodnotení filmu alebo inštitúcie, ktoré nie je pre niekoho žiaduce. To samozrejme vyžaduje armádu tých, ktorí pôjdu a nepáči sa (niekedy dokonca roboti), ale to je iný príbeh.

Čo je to Deep Learning?

Propagačné video:

Tento výraz v poslednej dobe znie čoraz častejšie. Niekedy dokonca ani nesúvisí s prípadom a je zamieňaný s niečím iným. Softvérový produkt teda vyzerá pôsobivejšie.

Nemysli si, že koncept a základné princípy strojového učenia sa objavili až pred niekoľkými rokmi. V skutočnosti majú toľko rokov, že mnohí z nás sa vtedy ani nenarodili. Základné princípy systémov hlbokého učenia a matematické modely ich práce boli známe už v 80. rokoch minulého storočia.

V tom čase to nedávalo zmysel kvôli nedostatku jednej dôležitej zložky. Bol to vysoký výpočtový výkon. Až v polovici dvadsiatych rokov sa objavili systémy, ktoré môžu pomôcť pracovať týmto smerom a umožňujú vypočítať všetky potrebné informácie. Teraz sa stroje vyvinuli ešte viac a niektoré systémy strojového videnia, vnímania hlasu a iné fungujú tak efektívne, že niekedy dokonca prevyšujú schopnosti človeka. Hoci ešte nie sú „uväznení“zodpovednými smermi, robia z nich doplnok k ľudským schopnostiam a zároveň si zachovávajú kontrolu nad nimi.

Image
Image

Čo je to Deepfake? Kedy sa objavila Deepfake?

Je ľahké uhádnuť, že Deepfake je malá hra o slovách spojených s Deep Learning a veľmi falzifikátoch, o ktorých som hovoril vyššie. To znamená, že spoločnosť Deepfake by mala brať falošnú správu na novú úroveň a vyložiť človeka z tohto zložitého podnikania, čo im umožní vytvárať falošný obsah bez plytvania energiou.

V prvom rade sa takéto falzifikáty týkajú videa. To znamená, že ktokoľvek môže sedieť pred kamerou, niečo povedať a jeho tvár sa nahradí inou osobou. Vyzerá to strašidelne, pretože v skutočnosti stačí zachytiť základné pohyby osoby a jednoducho nebude možné rozlíšiť falošné. Pozrime sa, ako to všetko začalo.

Prvú generatívnu kontradiktórnu sieť vytvoril študent na Stanfordskej univerzite. Stalo sa to v roku 2014 a meno študenta bol Ian Goodfellow. V skutočnosti postavil proti sebe dve neurónové siete, z ktorých jedna sa zaoberala generovaním ľudských tvárí, a druhá ich analyzovala a hovorila podobne alebo nie. Takže sa navzájom trénovali a jedného dňa sa druhá neurónová sieť začala zmiasť a generovať obrázky reálne. Je to stále komplexnejší systém, ktorý rodí Deepfake.

Teraz je jedným z hlavných propagátorov myšlienky Deepfake Hao Li. Nielen to, ale aj mnoho ďalších. Za to mu boli opakovane udeľované rôzne ceny, vrátane neoficiálnych. Mimochodom, je to jeden z tých, ktorým by sa malo poďakovať za vzhľad animoji v iPhone X. V prípade záujmu sa s ním môžete podrobnejšie oboznámiť na jeho webovej stránke. Dnes nie je hlavnou témou diskusie.

Spomenuli sme si iba na to, že na Svetovom hospodárskom fóre v Davose ukázal svoju žiadosť, ktorá vám umožní nahradiť tvár osoby, ktorá sedí pred kamerou, inou tvárou. Predovšetkým ukázal, ako tento systém funguje na príkladoch tvárí Leonarda DiCapria, Will Smith a ďalších známych ľudí.

Vyzerá to trochu strašidelne. Na jednej strane môžete obdivovať iba moderné technológie, ktoré vám umožňujú naskenovať tvár, zmeniť ju na inú a vytvoriť nový obrázok. To všetko trvá zlomok sekundy a systém sa ani nespomalí. To znamená, že umožňuje nielen spracovať hotové video a nahradiť tvár, ale aj zúčastniť sa na takejto postave v nejakej živej video komunikácii.

Nebezpečenstvo dýchania. Ako môžem zmeniť tvár na videu?

Môžete hovoriť tak, ako sa vám páči, že táto technológia je potrebná, je to veľmi cool a nemusíte sa ohovárať. Môžete dokonca ísť do extrému a začať hovoriť, že toto je pozícia drsného starca, ktorý sa jednoducho bojí všetkého nového, ale skutočne existuje viac nebezpečenstiev ako výhod.

S takouto technológiou, najmä ak ide o open source, bude môcť niekto surfovať a nahrávať akékoľvek video. Nie je to zlé, ak len hanobí čest a dôstojnosť niekoho, oveľa horšie je, ak ide o vyhlásenie urobené v mene dôležitej osoby. Napríklad nahrávaním videa trvajúceho iba 30 - 40 sekúnd v mene Tim Cooka môžete zvrhnúť takmer celú oblasť IT v USA pod vedením spoločnosti Apple. Akciový trh bude zasiahnutý tak tvrdo, že zaseje paniku medzi investormi. Výsledkom bude, že tisíce ľudí stratia miliardy dolárov.

Každý, kto nemá rád tento spôsob zarábania peňazí, povie, že to je to, čo potrebuje, nechaj ho ísť do závodu. Ale podľa najsmutnejšieho scenára po tom nebude žiadna rastlina. Okrem toho je banálne, že dostávame osobu, ktorá podvádza výkyvy hodnoty cenných papierov. Stačí ich len kúpiť a predať načas.

Situácia by mohla byť ešte horšia, ak by „žolík“vystúpil v mene vodcu veľkého štátu. Samozrejme, potom bude všetko odhalené, ale počas tejto doby môžete robiť veľa nepríjemných vecí. Na tomto pozadí by bolo jednoduché nahradiť tvár celebrity hercom v kine pre dospelých nevinným žartom.

U týchto technológií je hlavnou vecou skenovanie a potom je to otázka technológie. V pravom slova zmysle
U týchto technológií je hlavnou vecou skenovanie a potom je to otázka technológie. V pravom slova zmysle

U týchto technológií je hlavnou vecou skenovanie a potom je to otázka technológie. V pravom slova zmysle.

Môžete si predstaviť opačnú situáciu, keď skutočná osoba niečo povie, a potom každého ubezpečí, že bol zarámovaný. To, ako byť v tejto situácii, tiež nie je celkom jasné. To prinesie taký zmätok do spravodajských kanálov, že to jednoducho nie je možné dvakrát skontrolovať v inom zdroji. V dôsledku toho bude všeobecne nejasné, čo je pravda a čo je v tomto svete nepravdivé. Z filmov sa vynára obraz o pochmúrnej budúcnosti, napríklad Surrogates alebo Terminator, kde sa T-1000 predstavil ako ostatní ľudia a okrem iného sa v mene svojej adoptívnej matky nazval John Conor.

Teraz ani nehovorím o ďalšom zneužívaní, ktoré umožní zhromažďovanie falošných dôkazov. Na tomto pozadí je všetka zábava z hračky príliš pochybná.

Ako zistiť Deepfake?

Problémom nie je ani zákaz takýchto systémov, ale to už nie je možné. Už existujú a vývoj technológií vrátane čítania tvárí viedol k ich vzhľadu a šíreniu otvoreného zdroja. Aj keď si predstavujeme, že systém v jeho súčasnej podobe prestane existovať, musíme pochopiť, že bude vytvorený znova. Budú znova učiť neurónové siete, aby spolupracovali a to je všetko.

Kým nie je všetko také strašidelné a vy môžete falošným okom doslova identifikovať faloš. Obrázok je podobný, ale skôr drsný. Okrem toho má niekedy problémy s registráciou, najmä pozdĺž okrajov tváre. Nič však nestojí a vôbec nie je ťažké ho ďalej rozvíjať. Rovnaký Hao Li si je istý, že to nebude trvať dlhšie ako niekoľko mesiacov a vytvorenie „masiek“, ktoré nedokáže rozlíšiť ani počítač, bude trvať niekoľko ďalších rokov. Potom už nebude možné sa vrátiť.

Na jednej strane to môže zabrániť algoritmus, ktorý už YouTube a Facebook vytvárajú. Mimochodom, táto agentúra dokonca otvorila súťaž na vývoj technológie rozpoznávania - Deepfake Detection Challenge („Úloha odhaľovania hlbokých podvodov“). Výherný fond pre túto súťaž je 10 miliónov dolárov. Súťaž už prebieha a bude ukončená v marci 2020. Stále môžete mať čas zúčastniť sa.

Výmena tváre vo videu už nie je problémom
Výmena tváre vo videu už nie je problémom

Výmena tváre vo videu už nie je problémom.

Možno je táto štedrosť spôsobená falošným videom so samotným Markom Zuckerbergom. Ak tieto dve veci súvisia, vznik takejto súťaže nie je prekvapujúci.

Ak nahradená tvár úplne zodpovedá originálu, protistrana reprezentovaná špeciálnou neurónovou sieťou bude bezmocná. V takom prípade bude musieť zachytiť minimálne rozdiely vo výrazoch tváre, pohyboch a spôsobe rozprávania. V prípade známych ľudí sa takýto problém vyrieši na úrovni videopožičovne, pretože rovnaká služba YouTube vie, ako sa pohybuje konvenčný Donald Trump. Pokiaľ ide o menej známe osoby, je to zložitejšie. To sa však dá dokázať aj umiestnením pred kameru a neformálnym rozhovorom, zatiaľ čo nervová sieť analyzuje jeho pohyby. Ukázalo sa, že to bude niečo ako skúmanie odtlačkov prstov, ale ako vidíme, opäť to povedie k zbytočným ťažkostiam.

Je možné obísť aj šitie systémov autentifikácie videa do kamier. Môžete nastaviť, aby fotoaparát označil nasnímané video a aby bolo jasné, že nebol natočený samostatnou aplikáciou alebo spracovaný v špeciálnom programe. Ale čo videá, ktoré sa práve spracovali? Napríklad upravený rozhovor. Výsledkom bude video, v ktorom už nebude pôvodný kľúč.

Na záver pár memov
Na záver pár memov

Na záver pár memov.

Môžeme povedať, že sme načrtli jeden zo scenárov temnej budúcnosti? Všeobecne áno. Ak sa technológie, ktoré boli vytvorené na dosiahnutie dobrých cieľov, vymknú spod kontroly, môžu sa napiť smútkom. V skutočnosti existuje veľa alternatív pre takéto nebezpečné technológie, ale väčšina z nich je chránená. Napríklad jadrová fúzia. Tu sa zaoberáme kódom, ktorý môže získať každý.

Do komentárov napíšte, ako vidíte ochranu proti falšovaniu, pretože maskovací systém dokázal urobiť masky úplne identickými s pôvodnými tvárami. A pretože sú na videu, nemôžete na ne aplikovať ani hĺbkové ani objemové rozpoznávanie. Okrem toho predpokladajme, že môže dôjsť k napadnutiu akéhokoľvek kódu a kľúča vloženého do obrázka. Ako sa hovorí, bolo by to za čo. Teraz môžeme diskutovať, všetky úvodné informácie sú k dispozícii.

Artem Sutyagin