Chráni Nás „tri Zákony Robotiky“? - Alternatívny Pohľad

Obsah:

Chráni Nás „tri Zákony Robotiky“? - Alternatívny Pohľad
Chráni Nás „tri Zákony Robotiky“? - Alternatívny Pohľad

Video: Chráni Nás „tri Zákony Robotiky“? - Alternatívny Pohľad

Video: Chráni Nás „tri Zákony Robotiky“? - Alternatívny Pohľad
Video: День с Арсеном. КАРАНТИНО 2024, Apríl
Anonim

Je to už 50 rokov, čo Isaac Asimov prišiel so svojimi slávnymi tromi zákonmi robotiky - súbor pravidiel, ktoré musí dodržiavať každý rešpektujúci robot. Aj keď spočiatku išlo len o literárne zariadenie, tri zákony sa stali pôvodným receptom, ako sa vyhnúť „robotocalypse“. Našťastie existujú odborníci, ktorí hľadajú istotu, či Azimovove záruky obstáli v skúške času. Bohužiaľ, všetci hovoria nie.

Na začiatok si pripomeňme tieto tri zákony:

Robot nemôže osobe uškodiť alebo jej nečinnosťou dovoliť, aby bola zranená.

Robot sa musí riadiť všetkými pokynmi človeka, s výnimkou prípadov, keď sú v rozpore s prvým zákonom.

Robot sa musí postarať o svoju bezpečnosť, pokiaľ nie je v rozpore s prvým a druhým zákonom.

Neskôr Azimov pridal štvrtý alebo nula zákona, ktorý predchádzal ostatným z hľadiska priority:

Propagačné video:

0. Robot nemôže ublížiť človeku, pokiaľ nedokáže, že bude v konečnom dôsledku prospešný pre celé ľudstvo.

Image
Image

Vo fantasy vesmíre Asimova museli takmer všetci roboti postupovať podľa týchto zákonov. Nejde iba o návrhy alebo usmernenia - do softvéru boli zabudované zákony. Tieto pravidlá sa navyše nemôžu obísť, prepísať alebo revidovať.

Ako sám Asimov ukázal, nedokonalosti, medzery a nejasnosti v týchto zákonoch často viedli k zvláštnemu a nelogickému správaniu robotov. Zákony boli príliš vágne a často nedokázali definovať a rozlíšiť „ľudí“od „robotov“. Okrem toho by roboti mohli nevedomky porušiť zákony, ak by nemali k dispozícii úplné informácie. Tiež príliš prefíkaný robot alebo umelá inteligencia museli byť pod tlakom, aby nepreprogramovali svoje jadro.

Je to rok 2014 a veľa z našich životov až po fantázie z minulého storočia sa môže zdať otvorenou fantáziou. Mnoho ľudí malo pocit, že Asimovove zákony mali zostať literárnym zariadením. Ale sám Azimov v roku 1981 poznamenal, že jeho zákony by mohli fungovať. The Compute! uviedol:

„Keď sa ma niekto spýta, aké by to bolo, keby sa moje tri zákony robotiky skutočne použili na definovanie správania robotov, odpoveď je pripravená. Samozrejme za predpokladu, že roboty sú dostatočne flexibilné a univerzálne na to, aby prejavovali odlišné správanie. Moja odpoveď znie áno, tri zákony sú jediným spôsobom, ako môžu ľudia interagovať s robotmi alebo s čímkoľvek iným.

O takmer tridsať rokov neskôr sme sa priblížili realite, v ktorej budeme mať roboty - alebo presnejšie umelú inteligenciu, ktorá ich ovláda - dostatočne flexibilnú a univerzálnu pre rôzne chovanie. Zostáva len otázka času: keď stroj predčí človeka vo všetkých ohľadoch, od fyzickej sily až po fantáziu.

Je desivé, že prakticky neexistuje priestor pre chyby. Ak je umelá supervízia pre ľudí zle naprogramovaná alebo ľahostajná, povedie to k katastrofe. Musíme sa ubezpečiť, že umelá inteligencia je bezpečná, ak chceme prežiť jej vznik. ““

Odpovedzte na otázku „môžu Azimovove tri zákony pomôcť?“Prevzali ho dvaja teoretici umelej inteligencie: Ben Herzel (Aidyia Holdings) a Louis Helm, zástupca riaditeľa Inštitútu pre výskum strojových informácií (MIRI) a výkonný redaktor časopisu Rockstar Research. Po rozhovore s nimi sa ukázalo, že Asimovove zákony sa vo všeobecnosti nemôžu vyrovnať s úlohou, ktorá im bola pridelená, a ak potrebujeme vytvoriť bezpečnú AI, budeme musieť vyvinúť niečo úplne iné.

Asimova budúcnosť?

Image
Image

Rozhovor s Herzelom a Helmom sa začal tým, o čom sa Asimov nemýlil, predpovedal budúcnosť a kde sa mýlil.

"Myslím si, že typ robotov, ktorý si Asimov predstavil, bude možný v nie príliš vzdialenej budúcnosti," odpovedá Herzel. - Vo väčšine svojich fiktívnych svetov však autor predpokladal, že humanoidné roboty budú vrcholom robotiky a techniky umelej inteligencie. To je nepravdepodobné. Veľmi skoro po dosiahnutí stavu robotov Azimov bude k dispozícii vytvorenie umelej superinteligencie a super robotov. ““

Typický svet budúcnosti v Asimovových príbehoch o robotoch bude podľa Herzeka teda podobný tomu, v ktorom dnes žijeme, ale s inteligentnými robotmi, ktorí idú po uliciach.

„Je nepravdepodobné, že sa tak stane, a ak sa tak stane, nebude sa to dlho zdržiavať.“

Pre Helma sa zdá, že roboty sú úplne odlišné.

„Hlavnou otázkou, ktorá bude podľa môjho názoru pre ľudstvo najdôležitejšia, nie je morálna regulácia gigantického počtu polointeligentných humanoidov, ale v konečnom dôsledku vývoj pokročilých foriem umelej inteligencie (v akomkoľvek tele). Tento vývoj superinteligencie je filtrom, ktorým musí ľudstvo nakoniec prejsť. Preto je vypracovanie bezpečnostnej stratégie pre tento prechod také dôležité. Zdá sa mi úplne zvláštne, že roboti, androidi alebo „emulácie“budú existovať desať rokov alebo trochu viac, kým ľudstvo nebude čeliť skutočnému problému rozvoja strojovej etiky pre superinteligenciu. ““

Dobrý začiatok?

Image
Image

Berúc do úvahy, že tri asimovské zákony robotiky boli prvým úprimným pokusom vyriešiť veľmi vážny problém - problém bezpečného správania strojov s umelou superinteligáciou - stojí za to hľadať tie okamihy, v ktorých môžu byť zákony stále účinné (alebo aspoň inšpiratívne).

„Aby som bol úprimný, v týchto troch zákonoch robotiky nenájdem žiadnu inšpiráciu,“hovorí Helm. - Podstatou strojovej etiky je to, že nespĺňajú základy strojovej etiky. Možno sú tri zákony robotiky všeobecne známe, ale v skutočnosti je zbytočné ich používať ako základ pre programovanie. ““

„Z nejakého dôvodu sa systém dobrej etiky - nazývaný deontológia - stal nespoľahlivým základom pre etiku. Existuje mnoho filozofov, ktorí sa snažia vyriešiť problémy deontologie, ale sú to väčšinou tí istí ľudia, ktorí hľadajú „inteligentný dizajn“a „božský zásah“. Nikto ich neberie vážne. ““

Nevýhody troch asimovských zákonov robotiky sa scudzujú nasledovne:

Záporný charakter

Na základe zastaranej etickej teórie (deontológia)

Ani nepracujte v beletrii

Herzel súhlasí:

„Účelom týchto troch zákonov bolo ich porušiť zaujímavým spôsobom; Preto sú ich príbehy obzvlášť zábavné. Preto môžu tieto tri zákony zostať iba morálnym príkladom, ako to neurobiť. Ak ich vezmeme ako základ, budú v nich nevyhnutne medzery “.

Herzel verí, že tieto zákony v skutočnosti nebudú fungovať, pretože podmienky ich účasti sú nejednoznačné a zostávajú predmetom interpretácie - to znamená, že sú mimoriadne závislé od tých, ktorí prekladajú.

Predsudok proti robotom?

Ďalším aspektom (a potenciálnou chybou) troch zákonov v zjavnom šovinizme je predpoklad, že roboti by mali aj napriek svojej nadradenej moci zostať podriadení ľudským, ľudským potrebám a prioritám.

„Azimovská spoločnosť budúcnosti pozostáva výlučne zo šovinistov: ľudia majú oveľa viac práv ako roboti. Tri zákony robotiky boli vytvorené s cieľom zachovať práve taký spoločenský poriadok. ““

Image
Image

Helm sa na tento problém pozerá trochu inak a tvrdí, že ak sa ocitneme v takejto situácii, bude to samo osebe dôkazom, že sme zašli príliš ďaleko.

„Myslím si, že by bolo múdre navrhnúť systém umelej inteligencie alebo robot, ktorý si uvedomuje samých seba. A na rozdiel od filmov alebo kníh, v ktorých tvorcovia umelej inteligencie „náhodou“prichádzajú k inteligentným strojom, neverím, že sa to môže stať v skutočnom živote. Bude si to vyžadovať príliš veľa úsilia a znalostí. A väčšina vývojárov AI sú eticky zdatní ľudia, takže sa vyhnú vytvoreniu toho, čo filozofi nazývajú „morálne významné bytosti“. Najmä vtedy, keď môžu ľahko vytvoriť pokrokový stroj, ktorý nemá etické sklony. ““

Helm nie je znepokojený potrebou vyvinúť asymetrické zákony na riadenie hodnoty robotov nad ľuďmi, argumentujúc (a dúfajú), že budúci tvorcovia umelej inteligencie sa budú spoliehať na určité etické obmedzenia.

„Myslím si, že ľudia sú tvorení atómov, takže teoreticky môže inžinier vytvoriť syntetickú formu života alebo robota s morálnym významom. Chcel by som si myslieť, že to nikto neurobí. Myslím si, že to robí aj väčšina ľudí. Ale nevyhnutne bude blázon, ktorý chce byť známy ako priekopník, aj keď je neetický a hlúpy. ““

Tri zákony robotiky 2.0?

Vzhľadom na zjavné nedostatky troch robotických zákonov Asimova sa zdroj io9 pýtal: môžu byť opravené alebo vylepšené? Mnohí autori sci-fi to v skutočnosti vyskúšali mnohokrát a v priebehu rokov ju vylepšili.

"Nie," hovorí Helm. „Neexistujú záplaty pre tri zákony.“

Okrem protichodnej povahy majú zákony protichodný charakter.

„Som zástancom prístupov strojovej etiky, ktoré sú kooperatívnejšie, dôslednejšie a normatívnejšie, čo znamená, že sa môžu zotaviť z nedorozumení alebo opraviť nesprávne programovanie.“

Herzel odráža Helmove tvrdenia.

Definovanie súboru etických zásad ako jadra strojovej etiky bude beznádejné, ak bude stroj založený na flexibilnej všeobecnej umelej inteligencii. Ak bude koncipovaný ako intuitívny, flexibilný, prispôsobivý alebo etický - v tomto kontexte budú etické pravidlá pre systém užitočné iba ako hrubý návod na uplatňovanie vlastnej etickej intuície. Ale v tomto prípade sa prikázania nestanú základom etického systému, ale iba aspektom. Je to vidieť na ľudských príkladoch - etické princípy, ktoré študujeme, ale nie ako usmernenia, iba tlačia našu intuíciu a etické inštinkty. Sme prakticky nezávislí od etických zásad. ““

Ako vytvoriť bezpečnú umelú inteligenciu?

Vzhľadom na nedostatočnosť právneho prístupu sa môžete opýtať spoločnosti Gertzel a Helm na moderné prístupy k problému „bezpečnej AI“.

„Veľmi málo vedcov v oblasti všeobecnej umelej inteligencie verí, že je možné vytvoriť systém, ktorý je úplne bezpečný,“hovorí Herzel. „Ale väčšinu to neobťažuje, pretože v tomto živote nie je možné zaručiť vôbec nič.“

Herzel verí, že akonáhle vytvoríme všeobecný systém umelej inteligencie alebo jeho embryo, môžeme vykonávať výskumy a experimenty, ktoré nám hovoria o etike AI oveľa viac, ako vieme.

„Dúfajme, že týmto spôsobom dokážeme sformulovať dobré teórie o etike umelej inteligencie, ktorá nám umožní hlbšie sa ponoriť do tejto témy. Ale teraz je dosť ťažké teoretizovať o etike AI, pretože nemáme len dobré teórie, nemáme vôbec žiadne teórie. ““

„A pre ľudí, ktorí sledovali príliš veľa terminátorov, sa proces vytvárania umelej inteligencie môže zdať zastrašujúci, pretože v tomto kontexte chýbajú slovo„ primitívny “. Týmto spôsobom však došlo k najradikálnejším zmenám. ““

„Keď skupina chytrých jaskyniteľov vymyslela jazyk, neočakávala vývoj pevnej formálnej teórie jazyka, ktorá by mohla pomôcť predpovedať budúce zmeny spôsobené vznikom jazyka v spoločnosti.“

Predtým, ako budete považovať vývoj nasledujúcich „troch zákonov“za technický problém, musíte urobiť veľa výskumu. A tam sa Helm a Herzel zhodujú.

„Môj kolega z MIRI Luc Muelhauser zhrnul naše zdôvodnenie takto. Povedal, že problémy sa často presúvajú z filozofie do matematiky a potom do strojárstva. Filozofii sa často kladú správne otázky, ale najpraktickejším spôsobom. Nikto nemôže s istotou povedať, či sa pri riešení problému dosiahol nejaký pokrok. Ak dokážeme preformulovať dôležité filozofické problémy rozumu, identifikácie a hodnoty do presných vzorcov, s ktorými môže matematik pracovať, potom je možné vytvoriť nejaký model. Jedného krásneho dňa to príde na strojárstvo. ““

Helm považuje tento problém za zložitý pre vedu a filozofiu, ale je možný pokrok.

„Som skeptický, že filozofia dokáže vyriešiť problém, ktorý sa bojuje už viac ako 3 000 rokov. Ale my tiež nemôžeme brať a začať vytvárať matematické modely otázok, ktoré nie sú technicky prítomné. Stále potrebujeme veľa teoretického a dokonca praktického vývoja. ““

Odporúčaná: