Umelá Inteligencia Sa Naučila Podvádzať Inú Umelú Inteligenciu - Alternatívny Pohľad

Umelá Inteligencia Sa Naučila Podvádzať Inú Umelú Inteligenciu - Alternatívny Pohľad
Umelá Inteligencia Sa Naučila Podvádzať Inú Umelú Inteligenciu - Alternatívny Pohľad

Video: Umelá Inteligencia Sa Naučila Podvádzať Inú Umelú Inteligenciu - Alternatívny Pohľad

Video: Umelá Inteligencia Sa Naučila Podvádzať Inú Umelú Inteligenciu - Alternatívny Pohľad
Video: Umelá inteligencia 2024, Apríl
Anonim

Vedci z Massachusetts Institute of Technology (MIT) vyvinuli techniku na lákanie textovej analýzy umelej inteligencie (AI), uviedol Wired.

Vedci zistili, že mierna zmena vety, ktorá je pre človeka zrozumiteľná, môže klamať AI. Vyvinuli algoritmus, ktorý nahradil slová synonymami a oklamal rozpoznávací text AI. Nuansou je, že samotný útočný algoritmus používa AI na výber synoným.

Napríklad veta „Postavy obsadené v nemožne vymyšlených situáciách sú úplne odcudzené od reality.“(„Postavy hrané v neuveriteľne vymyšlených situáciách sú úplne mimo kontaktu s realitou“), čo je negatívnou prehliadkou filmu.

Ak slová v ňom nahradíme synonymami, potom sa veta „Postavy obsadené v nepredvídateľne vytvorených situáciách úplne odcudzia realite“(„Postavy hrané v neuveriteľne zručných okolnostiach sú úplne oddelené od reality“), potom AI považuje hodnotenie za pozitívne.

Klamať možno aj iné typy systémov AI, v tomto prípade sa zraniteľné miesta prejavili najmä v systémoch rozpoznávania obrazu a reči.

Vedci poznamenali, že takéto jemné narušenie údajov môže klamať umelú inteligenciu a môže sa použiť na útoky na systémy, ktoré sa stávajú významnými, keď sa šíri inteligencia v oblasti financií, zdravotníctva a ďalších.