Morálny Stroj: Inžinieri Obdarili Umelú Inteligenciu Morálkou A Etikou - Alternatívny Pohľad

Obsah:

Morálny Stroj: Inžinieri Obdarili Umelú Inteligenciu Morálkou A Etikou - Alternatívny Pohľad
Morálny Stroj: Inžinieri Obdarili Umelú Inteligenciu Morálkou A Etikou - Alternatívny Pohľad

Video: Morálny Stroj: Inžinieri Obdarili Umelú Inteligenciu Morálkou A Etikou - Alternatívny Pohľad

Video: Morálny Stroj: Inžinieri Obdarili Umelú Inteligenciu Morálkou A Etikou - Alternatívny Pohľad
Video: Дон-Строй Инвест 2024, Smieť
Anonim

Čím silnejšia je AI v každodennom živote, tým častejšie musí čeliť zložitým morálnym a etickým dilemám, ktoré pre živého človeka niekedy nie sú také ľahké. Vedci z MIT sa pokúsili tento problém vyriešiť a dali stroju schopnosť myslieť v zmysle morálky na základe názoru väčšiny žijúcich ľudí.

Niektorí odborníci sa domnievajú, že najlepším spôsobom, ako trénovať umelú inteligenciu na zvládanie morálne zložitých situácií, je použitie „davu“. Iní tvrdia, že tento prístup nebude bez zaujatosti a rôzne algoritmy môžu na základe rovnakého súboru údajov dospieť k rôznym záverom. Ako môžu byť stroje v takej situácii, ktorá bude pri práci so skutočnými ľuďmi zjavne musieť robiť náročné morálne a etické rozhodnutia?

Intelekt a morálka

S vývojom systémov umelej inteligencie (AI) sa odborníci čoraz viac snažia vyriešiť problém, ako najlepšie dať systému etický a morálny základ pre vykonávanie určitých činností. Najpopulárnejším nápadom je, aby AI vyvodzovala závery štúdiom ľudských rozhodnutí. Na vyskúšanie tohto predpokladu vytvorili vedci z Massachusettského technologického inštitútu Morálny stroj. Návštevníci webových stránok boli požiadaní, aby sa rozhodli, čo by malo autonómne vozidlo robiť, keď čelia dosť ťažkej voľbe. Napríklad ide o známu dilemu o potenciálnej nehode, ktorá má iba dve možnosti rozvoja udalostí: auto môže zraziť troch dospelých, aby zachránilo životy dvoch detí, alebo môže urobiť opak. Ktorú možnosť by ste si mali zvoliť? A je možné napríkladobetovať život staršej osoby, aby zachránil tehotnú ženu?

Výsledkom bolo, že algoritmus zostavil na základe výsledkov testov obrovskú databázu a Ariel Procaccia z katedry počítačovej vedy na Carnegie Mellon University sa ich rozhodla použiť na zlepšenie inteligencie strojov. V novej štúdii spolu s jedným z tvorcov projektu Iyadom Rahwanom vložili kompletnú základňu projektu Moral Machine do AI a požiadali systém, aby predpovedal, ako bude auto na autopilote reagovať na podobné, ale stále mierne odlišné scenáre. Procaccia chcela demonštrovať, ako môže byť systém založený na hlasovaní riešením pre „etickú“umelú inteligenciu. “Samotný autor práce pripúšťa, že takýto systém je, samozrejme, na aplikáciu v praxi ešte stále skoro, ale vynikajúco dokazuje samotný koncept, ktorý to je možné.

Krížová morálka

Propagačné video:

Samotná myšlienka voľby medzi dvoma morálne negatívnymi výsledkami nie je nová. Etika pre ňu používa samostatný výraz: princíp dvojitého účinku. Ale toto je oblasť bioetiky, ale nikto predtým takýto systém na auto neaplikoval, a preto štúdia vyvolala osobitný záujem odborníkov z celého sveta. Spolupredseda OpenAI Elon Musk je presvedčený, že vytvorenie „etickej“umelej inteligencie je otázkou vypracovania jasných pokynov alebo politík, ktoré majú usmerniť vývoj programu. Politici ho postupne počúvajú: napríklad Nemecko vytvorilo prvé etické princípy pre autonómne vozidlá na svete. Dokonca aj Google Alphabet AI DeepMind má teraz oddelenie etiky a verejnej morálky.

Ďalší odborníci, vrátane tímu vedcov z Duke University, sa domnievajú, že najlepším spôsobom, ako napredovať, je vytvoriť „všeobecný rámec“, ktorý popisuje, ako bude AI v danej situácii prijímať etické rozhodnutia. Veria, že zjednotenie kolektívnych morálnych názorov, rovnako ako v rovnakom Morálnom stroji, spôsobí, že umelá inteligencia bude v budúcnosti ešte morálnejšia ako moderná ľudská spoločnosť.

Kritika „morálneho stroja“

Nech je to už akokoľvek, v súčasnosti nie je princíp „väčšinového názoru“ani zďaleka spoľahlivý. Napríklad jedna skupina respondentov môže mať predsudky, ktoré nie sú spoločné pre všetkých ostatných. Výsledkom bude, že AI, ktorým bol poskytnutý presne ten istý súbor údajov, môžu na základe rôznych vzoriek týchto informácií dospieť k rôznym záverom.

Pre profesora Jamesa Grimmelmanna, ktorý sa špecializuje na dynamiku medzi softvérom, bohatstvom a mocou, vyzerá samotná myšlienka verejnej morálky chybne. „Nie je schopný učiť etiku v oblasti umelej inteligencie, iba ju obdarúva zdaním etických štandardov, ktoré sú vlastné určitej časti populácie,“hovorí. A samotný Procaccia, ako už bolo spomenuté vyššie, pripúšťa, že ich výskum nie je ničím iným ako úspešným dôkazom koncepcie. Je však presvedčený, že takýto prístup by mohol priniesť úspech celej kampani zameranej na vytvorenie vysoko morálnej umelej inteligencie v budúcnosti. „Demokracia má nepochybne niekoľko nedostatkov, ale ako jednotný systém funguje - aj keď niektorí ľudia stále prijímajú rozhodnutia, s ktorými väčšina nesúhlasí.“

Vasilij Makarov