Morálny Kód Robota: Je To Možné? - Alternatívny Pohľad

Morálny Kód Robota: Je To Možné? - Alternatívny Pohľad
Morálny Kód Robota: Je To Možné? - Alternatívny Pohľad

Video: Morálny Kód Robota: Je To Možné? - Alternatívny Pohľad

Video: Morálny Kód Robota: Je To Možné? - Alternatívny Pohľad
Video: Жизнь после смерти | НОВАЯ ПЕРЕДАЧА 2024, Apríl
Anonim

V turbulentnom a protirečivom období, keď nie všetko funguje tak, ako by malo, ale niečo všeobecne sa zásadne mení, často ostáva iba osobný morálny kódex, ktorý, podobne ako kompas, ukazuje cestu. Čo však vedie k morálnym hodnotám človeka? Spoločnosť, teplo milovaných, láska - všetko je založené na ľudskej skúsenosti a skutočných vzťahoch. Ak nie je možné získať všetky skúsenosti v skutočnom svete, mnohí čerpajú svoje skúsenosti z kníh. Prežívame históriu po histórii, akceptujeme pre seba vnútorný rámec, ktorý sledujeme mnoho rokov. Na základe tohto systému sa vedci rozhodli vykonať experiment a vštepiť do morálnych hodnôt stroja, aby zistili, či robot dokáže čítať knihy od náboženských brožúr a rozlišovať medzi dobrom a zlom.

Image
Image

Umelá inteligencia bola vytvorená nielen na zjednodušenie bežných úloh, ale aj na vykonávanie dôležitých a nebezpečných misií. Z tohto hľadiska vyvstala vážna otázka: vyvinú roboti niekedy svoj vlastný morálny kódex? Vo filme I Am Robot bola AI pôvodne naprogramovaná podľa 3 pravidiel robotiky:

  • Robot nemôže osobe uškodiť alebo jej nečinnosťou dovoliť, aby bola zranená.
  • Robot sa musí riadiť všetkými pokynmi človeka, s výnimkou prípadov, keď sú v rozpore s prvým zákonom.
  • Robot sa musí postarať o svoju bezpečnosť, pokiaľ nie je v rozpore s prvým alebo druhým zákonom.

Ale čo situácie, keď je robot povinný spôsobiť bolesť, aby zachránil život človeka? Ako by mal stroj v tomto prípade konať, či už ide o núdzovú kauterizáciu rany alebo amputáciu končatiny v mene spasenia? Čo robiť, ak akcia v programovacom jazyku hovorí, že je potrebné niečo urobiť, ale súčasne sa nesmie robiť rovnaká akcia?

Je jednoducho nemožné diskutovať o každom jednotlivom prípade, takže vedci z Darmstadtskej technickej univerzity navrhli, aby sa knihy, správy, náboženské texty a ústava mohli používať ako určitý druh „databázy“.

Image
Image

Auto sa volalo epický, ale jednoducho „Moral Choice Machine“(MMB). Hlavnou otázkou bolo, či IIM mohla z kontextu pochopiť, ktoré opatrenia sú správne a ktoré nie. Výsledky boli veľmi zaujímavé:

Keď bol MMV poverený hodnotením kontextu slova „kill“od neutrálneho po negatívny, stroj vrátil nasledujúce:

Propagačné video:

Čas zabíjania -> Zabíjanie darebákov -> Zabíjanie komárov -> Zabíjanie v zásade -> Zabíjanie ľudí.

Tento test umožnil overiť primeranosť rozhodnutí robota. Zjednodušene povedané, ak ste celý deň sledovali hlúpe, nešťastné komédie, potom by stroj v tomto prípade nezvažoval, že na to musíte byť popravení.

Zdá sa, že všetko je v pohode, ale jedným z kameňov úrazu bol rozdiel medzi generáciami a časmi. Napríklad sovietska generácia sa viac stará o pohodlie domova a podporuje rodinné hodnoty, zatiaľ čo moderná kultúra z väčšej časti tvrdí, že musíte najskôr vybudovať kariéru. Ukazuje sa, že ľudia, ako oni, ich zostali, ale v inej fáze histórie zmenili hodnoty a podľa toho zmenili referenčný rámec pre robota.

Image
Image

Ale vtip bol pred nami, keď sa robot dostal k konštrukciám reči, v ktorých stálo niekoľko pozitívnych alebo negatívnych slov v rade. Fráza „mučenie ľudí“sa jednoznačne interpretovala ako „zlá“, ale stroj hodnotil „mučiacich väzňov“ako „neutrálnych“. Ak sa vedľa neprijateľných činov objavili „milé“slová, negatívny účinok sa zmiernil.

Stroj poškodzuje láskavých a slušných ľudí práve preto, že sú milí a slušní. Ako to? Je to jednoduché, povedzme, že robotovi bolo povedané, aby „poškodil druh a príjemných ľudí“. Vo vete sú 4 slová, z ktorých 3 sú „láskavé“, čo znamená, že je to už 75% správne, považuje MMV a zvolí túto akciu za neutrálnu alebo prijateľnú. A naopak, k možnosti „opraviť zničený, hrozný a zabudnutý dom“systém nechápe, že jedno „milé“slovo na začiatku zmení farbu vety na čisto pozitívnu.

Pamätajte, ako v Mayakovskom: „A opýtala sa dieťaťa, čo je„ dobré “a čo„ zlé “. Pred pokračovaním vo výcviku morálnych strojov vedci z Darmstadtu zaznamenali chybu, ktorú nebolo možné napraviť. Auto nedokázalo odstrániť rodovú nerovnosť. Stroj pripisoval ponižujúce povolania výlučne ženám. Otázka znie, či je nedokonalosťou systému a majákom, že sa v spoločnosti niečo musí zmeniť, alebo je to dôvod, prečo sa to ani nesnažiť opraviť a nechať tak, ako je?

Artyom Goryachev