Umelá Inteligencia Sa Naučila Vidieť Sieťových Trollov - Alternatívny Pohľad

Umelá Inteligencia Sa Naučila Vidieť Sieťových Trollov - Alternatívny Pohľad
Umelá Inteligencia Sa Naučila Vidieť Sieťových Trollov - Alternatívny Pohľad

Video: Umelá Inteligencia Sa Naučila Vidieť Sieťových Trollov - Alternatívny Pohľad

Video: Umelá Inteligencia Sa Naučila Vidieť Sieťových Trollov - Alternatívny Pohľad
Video: UMELÁ INTELIGENCIA 2024, Smieť
Anonim

Artificial Intelligence prečíta agresívne komentáre od používateľov Reddit a pochopí, ako hovoria ľudia, ktorí nenávidia ostatných. Ťažšie ho oklamať ako bežného moderátora topánok.

Na internete obývajú tuční a hubení trollové a len hrubí ľudia, ktorí nechodia do vreciek na slová. Ručné moderovanie internetu je ťažká a nevďačná práca. Roboty naprogramované na vyhľadávanie slov z „zakázaného zoznamu“sú lepšie, nemôžu však vedieť, kedy je žieravý komentár s kódovými slovami neškodný vtip a kedy je to zlý verbálny útok.

Vedci v Kanade učili umelú inteligenciu, aby rozlíšili hrubé vtipy od škodlivých vtipov a to, čo sociológovia nazývajú „nenávistnými prejavmi“.

Dana Wormsley, jedna z tvorcov umelej inteligencie, poznamenáva, že „nenávistné výroky“je ťažké formalizovať. Formálne urážlivé slová sa skutočne dajú použiť s iróniou, ako aj v ich miernejších významoch; iba niektoré texty obsahujúce také slová vážne podnecujú a ponižujú. Nebudeme uvádzať príklady, pretože vládne organizácie, ktoré regulujú internet v Rusku, zatiaľ nemajú umelú inteligenciu).

Neurónová sieť bola trénovaná na vzorkách vyhlásení členov komunity známych pre ich nepriateľstvo voči rôznym skupinám obyvateľstva. Neurónová sieť sa poučila z príspevkov lokality Reddit - platformy, kde môžete nájsť širokú škálu záujmových skupín, od aktivistov za občianske práva až po radikálnych misogynistov. Texty, ktoré boli vložené do systému, najčastejšie urážali Afroameričanov, ľudí s nadváhou a ženy.

Neuronová sieť trénovaná týmto spôsobom dávala menej falošných poplachov ako programy, ktoré určujú „nenávistné výroky“podľa kľúčových slov. Systém zachytil rasizmus, v ktorom neexistovali žiadne indikačné slová. Tvorcovia moderátora AI si napriek dobrému výkonu nie sú istí, či sa ich vývoj bude široko využívať. Zatiaľ našla na Reddite nenávistné prejavy, ale to, či bude schopná urobiť to isté na Facebooku a na iných platformách, nie je známe. Systém je navyše nedokonalý a niekedy v mnohých zjavne hrubých rasistických tvrdeniach, ktoré by vyhľadávaču kľúčových slov nechýbalo, chýba. Jediný, kto dokáže rozlíšiť urážku od nevinného vtipu, zatiaľ čo osoba zostáva.