Myslieť Ako človek: čo Sa Stane, Ak Stroj Vybavíte Teóriou Vedomia - Alternatívny Pohľad

Obsah:

Myslieť Ako človek: čo Sa Stane, Ak Stroj Vybavíte Teóriou Vedomia - Alternatívny Pohľad
Myslieť Ako človek: čo Sa Stane, Ak Stroj Vybavíte Teóriou Vedomia - Alternatívny Pohľad

Video: Myslieť Ako človek: čo Sa Stane, Ak Stroj Vybavíte Teóriou Vedomia - Alternatívny Pohľad

Video: Myslieť Ako človek: čo Sa Stane, Ak Stroj Vybavíte Teóriou Vedomia - Alternatívny Pohľad
Video: Meditácia na splnenie snov - ZÁKON PRÍŤAŽLIVOSTI 2024, Júl
Anonim

Minulý mesiac došlo k veľkolepej porážke tímu hráčov AI, ktorí sa učili samostatne. Prehliadka zápasu, ktorá sa konala ako súčasť medzinárodného majstrovstva Dota 2 v medzinárodnom šampionáte, ukázala, že strategické myslenie tímu stále umožňuje človeku získať kontrolu nad vozidlom.

Zapojené boli AI niekoľko algoritmov vyvinutých OpenAI, z ktorých jeden zo zakladateľov bol Elon Musk. Skupina digitálnych prehrávačov, nazývaná OpenAI Five, sa naučila hrať na Dota 2 samostatne, prostredníctvom pokusov a omylov, navzájom si konkurujúcich.

Na rozdiel od rovnakej šachovej alebo doskovej logickej hry Go je populárna a rýchlo rastúca multiplayerová hra Dota 2 považovaná za oveľa vážnejšie pole na testovanie umelej inteligencie. Celková náročnosť hry je iba jedným z faktorov. Nestačí len kliknúť myšou veľmi rýchlo a vydávať príkazy postave, ktorú ovládate. Aby sme mohli zvíťaziť, je potrebné mať intuíciu a pochopenie toho, čo od súpera možno očakávať v nasledujúcom časovom období, ako aj primerane konať podľa tohto súboru vedomostí, aby sme sa spojili so spoločným úsilím o dosiahnutie spoločného cieľa - víťazstvo. Počítač nemá túto množinu schopností.

K dnešnému dňu ani najvýraznejší algoritmus hlbokého učenia nemá strategické myslenie potrebné na pochopenie cieľov úloh jeho súpera, či už ide o inú inteligenciu alebo človeka.

Podľa Wanga, ak má AI uspieť, musí mať hlboké komunikačné schopnosti, ktoré pochádzajú z najdôležitejšej kognitívnej črty osoby - prítomnosti inteligencie.

Model duševného stavu ako simulácia

Propagačné video:

Vo veku štyroch rokov deti zvyčajne začínajú chápať jednu základnú sociálnu črtu: ich myseľ sa líši od mysle ostatných. Začnú chápať, že každý má to, v čo verí, svoje túžby, emócie a úmysly. A čo je najdôležitejšie, dokážu si predstaviť miesto iných, môžu začať predpovedať ďalšie správanie týchto ľudí a vysvetľovať ich. Ich mozgy tak začínajú vytvárať viacnásobné simulácie seba samých vo svojom vnútri, nahrádzajúce seba namiesto iných ľudí a umiestňovať sa do iného prostredia.

Model duševného stavu je dôležitý pre pochopenie seba samého ako človeka a tiež hrá dôležitú úlohu v sociálnej interakcii. Porozumenie iným je kľúčom k účinnej komunikácii a dosiahnutiu spoločných cieľov. Táto schopnosť však môže byť tiež hnacou silou falošného presvedčenia - ideí, ktoré nás odvádzajú od objektívnej pravdy. Akonáhle je napríklad narušená schopnosť používať model duševného stavu, nastáva to napríklad v autizme, potom sa zhoršujú aj prírodné „ľudské“zručnosti, ako je schopnosť vysvetliť a predstaviť si.

Podľa Dr. Alana Winfielda, profesora robotiky na University of West England, je model duševného stavu alebo „teória mysle“kľúčovou vlastnosťou, ktorá jedného dňa umožní umelej inteligencii „porozumieť“ľuďom, veciam a iným robotom.

Namiesto metód strojového učenia, v ktorých viaceré vrstvy neurónových sietí extrahujú jednotlivé informácie a „študujú“obrovské databázy, Winston navrhuje zvoliť iný prístup. Namiesto spoliehania sa na učenie navrhuje Winston predprogramovanie AI s interným modelom seba samého a prostredia, ktoré budú zodpovedať jednoduché otázky „čo keď?“Otázky.

Predstavte si napríklad, že sa dva roboty pohybujú po úzkej chodbe, ich AI môže simulovať výsledky ďalších akcií, ktoré zabránia ich kolízii: zahnite doľava, doprava alebo pokračujte rovno. Tento interný model bude v zásade pôsobiť ako „mechanizmus dôsledkov“a bude pôsobiť ako druh „zdravého rozumu“, ktorý pomôže nasmerovať AI na ďalšie správne kroky tým, že predpovedá budúci vývoj situácie.

V štúdii uverejnenej začiatkom tohto roka spoločnosť Winston preukázala prototyp robota schopného dosiahnuť také výsledky. V očakávaní správania ostatných robot úspešne prešiel chodbou bez kolízií. V skutočnosti to nie je prekvapujúce, autor poznamenáva, ale „pozorný“robot, ktorý používa simulovaný prístup k riešeniu problému, dokončenie koridoru trvalo o 50 percent dlhšie. Winston napriek tomu dokázal, že jeho metóda vnútornej simulácie funguje: „Je to veľmi silný a zaujímavý východiskový bod vo vývoji teórie umelej inteligencie,“uzavrel vedec.

Winston dúfa, že AI nakoniec získa schopnosť popísať a mentálne reprodukovať situácie. Vnútorný model sám o sebe a ostatných umožní takejto AI simulovať rôzne scenáre a čo je dôležitejšie, definovať konkrétne ciele a ciele pre každý z nich.

To sa výrazne líši od algoritmov hlbokého učenia, ktoré v zásade nie sú schopné vysvetliť, prečo pri riešení problému dospeli k tomuto alebo k záveru. Model hlbokého učenia v čiernej skrinke je v skutočnosti skutočným problémom pri dôvere v takéto systémy. Tento problém sa môže stať obzvlášť akútnym, napríklad pri vývoji ošetrovateľských robotov pre nemocnice alebo pre starších ľudí.

AI vyzbrojená modelom duševného stavu sa mohla dostať do topánok svojich pánov a správne pochopiť, čo sa od neho požaduje. Potom mohol identifikovať vhodné riešenia a po vysvetlení týchto rozhodnutí osobe by už plnil úlohu, ktorá mu bola pridelená. Čím menšia je neistota pri rozhodovaní, tým väčšia dôvera v takéto roboty bude.

Model duševného stavu v neurálnej sieti

DeepMind má iný prístup. Namiesto predprogramovania algoritmu pre mechanizmus dôsledkov vyvinuli niekoľko neurónových sietí, ktoré vykazujú podobnosť s modelom kolektívneho psychologického správania.

Algoritmus AI „ToMnet“sa môže učiť činnosti pozorovaním iných neutrónových sietí. Samotný ToMNet je súborom troch neurónových sietí: prvý je založený na zvláštnostiach výberu iných AI podľa ich najnovších akcií. Druhá tvorí všeobecný koncept súčasnej nálady - ich viery a úmysly v určitom časovom okamihu. Spoločný výsledok práce dvoch neurónových sietí je prijatý tretí, ktorý predpovedá ďalšie akcie AI založené na situácii. Rovnako ako pri hlbokom učení sa ToMnet stáva efektívnejším, pretože získava skúsenosti sledovaním ostatných.

V jednom experimente ToMnet „sledoval“manévrov troch agentov AI v digitálnej miestnosti a zbieral farebné škatule. Každá z týchto AI mala svoju zvláštnosť: jedna bola „slepá“- nedokázala určiť tvar a umiestnenie v miestnosti. Druhý bol „sklerotický“: nemohol si spomenúť na svoje posledné kroky. Tretí mohol vidieť aj pamätať si.

Po tréningu začal ToMnet predpovedať preferencie každého AI pozorovaním jeho činnosti. Napríklad „slepý“sa neustále pohyboval iba pozdĺž stien. ToMnet si to pamätal. Algoritmus bol tiež schopný správne predpovedať budúce správanie AI a čo je dôležitejšie, pochopiť, keď sa AI stretla s nesprávnou reprezentáciou prostredia.

V jednej skúške tím vedcov naprogramoval jednu AI na „krátkozrakosť“a zmenil rozloženie miestnosti. Agenti s normálnym zrakom sa rýchlo prispôsobili novému usporiadaniu, ale krátkozraký muž pokračoval v sledovaní svojich pôvodných trás a nepravdivo veril, že je stále v starom prostredí. ToMnet túto funkciu rýchlo zaznamenal a presne predpovedal správanie agenta, čím sa dostal na svoje miesto.

Podľa Dr. Alison Gopnik, vývojového psychológa na kalifornskej univerzite, Berkeley, ktorý sa nezúčastnil na týchto štúdiách, ale bol oboznámený so zisteniami, tieto výsledky ukazujú, že neurónové siete majú úžasnú schopnosť učiť sa rôzne zručnosti samy osebe pozorovaním druhých. Zároveň je podľa odborníka ešte stále veľmi skoro hovoriť, že tieto AI vyvinuli umelý model duševného stavu.

Podľa Dr. Josha Tenebaum z Massachusettsovho technologického inštitútu, ktorý sa do štúdie tiež nezúčastnil, je „porozumenie“spoločnosti ToMnet pevne spojené s kontextom vzdelávacieho prostredia - s rovnakou miestnosťou a konkrétnymi agentmi AI, ktorých úlohou bolo vyzdvihnúť krabice. Toto obmedzenie v určitom rámci robí ToMnet menej efektívnym pri predpovedaní správania v radikálne nových prostrediach, na rozdiel od tých istých detí, ktoré sa dokážu prispôsobiť novým situáciám. Algoritmus sa podľa vedca nebude zaoberať modelovaním činností úplne inej AI alebo osoby.

Práca spoločností Winston a DeepMind v každom prípade ukazuje, že počítače začínajú navzájom odhaľovať „porozumenie“, aj keď toto porozumenie je stále len základné. A ako budú pokračovať v zdokonaľovaní tejto zručnosti, vzájomnom porozumení lepším a lepším, príde čas, keď stroje dokážu porozumieť zložitosti a zložitosti nášho vlastného vedomia.

Nikolay Khizhnyak