Budovanie Morálneho Stroja: Kto Bude Zodpovedný Za Etiku Vozidiel S Vlastným Riadením? - Alternatívny Pohľad

Obsah:

Budovanie Morálneho Stroja: Kto Bude Zodpovedný Za Etiku Vozidiel S Vlastným Riadením? - Alternatívny Pohľad
Budovanie Morálneho Stroja: Kto Bude Zodpovedný Za Etiku Vozidiel S Vlastným Riadením? - Alternatívny Pohľad

Video: Budovanie Morálneho Stroja: Kto Bude Zodpovedný Za Etiku Vozidiel S Vlastným Riadením? - Alternatívny Pohľad

Video: Budovanie Morálneho Stroja: Kto Bude Zodpovedný Za Etiku Vozidiel S Vlastným Riadením? - Alternatívny Pohľad
Video: Aplikovaná Etika video 2024, Marec
Anonim

Jazdíte po diaľnici, keď sa človek dostane na rušnú cestu. Autá sa pohybujú okolo vás a máte zlomok sekundy, aby ste sa rozhodli: pokúsiť sa vyhnúť osobe a predstavovať riziko nehody? Pokračujte v jazde v nádeji, že bude mať čas? Brzdiť? Ako hodnotíte pravdepodobnosť pripútania dieťaťa na zadné sedadlo? V mnohých ohľadoch je to klasická „morálna dilema“, problém s vozíkom. Má milión veľmi odlišných možností, ktoré vám umožňujú odhaliť ľudské predsudky, ale podstata je rovnaká.

Ste v situácii, keď ide o život a smrť, neexistuje jednoduchá voľba a vaše rozhodnutie v skutočnosti určí, kto žije a kto zomiera.

Dilema vozíka a umelá inteligencia

Nový príspevok MIT, zverejnený minulý týždeň v časopise Nature, sa snaží prísť s pracovným riešením problému s vozíkom najímaním miliónov dobrovoľníkov. Experiment sa začal v roku 2014 a bol úspešný a dostal viac ako 40 miliónov odpovedí z 233 krajín, čím sa stal jednou z najväčších morálnych štúdií, aké sa kedy vykonali.

Osoba môže robiť také rozhodnutia nevedome. Keď vaše auto preteká po ceste, je ťažké zvážiť všetky etické systémy a morálne predpoklady. Ale v našom svete sa rozhodnutia čoraz viac robia pomocou algoritmov a počítače môžu ľahko reagovať rýchlejšie ako my.

Hypotetické situácie s autami s vlastným riadením nie sú jediné morálne rozhodnutia, ktoré musia algoritmy robiť. Lekárske algoritmy vyberú, kto bude liečený s obmedzenými zdrojmi. Automatizované bezpilotné lietadlá si vyberú, koľko „kolaterálnych škôd“je prijateľné pri jednotlivých vojenských zásahoch.

Propagačné video:

Nie všetky morálne princípy sú si rovné

„Riešenia“problému s vozíkom sú také rozmanité ako samotné problémy. Ako budú stroje robiť morálne rozhodnutia, keď základy morálky a etiky nebudú všeobecne akceptované a možno nebudú mať riešenia? Kto môže určiť, či algoritmus robí správne alebo zlé?

Prístup crowdsourcingu, ktorý prijali vedci spoločnosti Moral Machine, je dosť pragmatický. V konečnom dôsledku, aby verejnosť mohla akceptovať vozidlá s vlastným riadením, musí prijať morálny základ, ktorý stojí za ich rozhodnutiami. Nebude dobré, keď etici alebo právnici prídu s riešením, ktoré je pre bežných vodičov neprijateľné alebo neprijateľné.

Výsledky vedú k podivnému záveru, že morálne priority (a teda aj algoritmické rozhodnutia, ktoré môžu ľudia robiť) závisia od toho, kde na svete ste.

Vedci predovšetkým uznávajú, že je nemožné poznať frekvenciu alebo povahu týchto situácií v reálnom živote. Ľudia, ktorí sa stali účastníkmi nehody, často nedokážu povedať, čo sa presne stalo, a rozsah možných situácií vylučuje jednoduchú klasifikáciu. Preto, aby sa problém mohol vyriešiť, musí sa rozdeliť na zjednodušené scenáre, ktoré hľadajú univerzálne morálne pravidlá a zásady.

Pri prieskume sa vám zobrazí trinásť otázok, ktoré si vyžadujú jednoduché áno alebo nie, pričom sa snažia zúžiť odpovede na deväť faktorov.

Malo by sa auto zmeniť na iný jazdný pruh alebo sa naďalej pohybovať? Mali by ste zachraňovať mladých ľudí, nie starých? Ženy alebo muži? Zvieratá alebo ľudia? Ak by ste sa pokúsili zachrániť čo najviac životov, alebo je jedno dieťa „hodné“dvoch starších ľudí? Ušetrite cestujúcich v aute, nie chodcov? Tí, ktorí nedodržiavajú pravidlá, alebo tí, ktorí tieto pravidlá nedodržiavajú? Mali by ste zachrániť ľudí, ktorí sú fyzicky silnejší? A čo ľudia s vyšším sociálnym postavením, ako sú lekári alebo podnikatelia?

V tomto drsnom hypotetickom svete musí niekto zomrieť a na každú z týchto otázok odpoviete - s rôznym stupňom nadšenia. Tieto rozhodnutia však odhaľujú hlboko zakorenené kultúrne normy a zaujatosti.

Spracovanie obrovského súboru údajov, ktorý vedci skúmali, prináša univerzálne pravidlá, ako aj zvláštne výnimky. Tri najdominantnejšie faktory, spriemerované na celú populáciu, boli to, že každý radšej zachránil viac životov ako menej, ľudí, skôr ako zvieratá, a skôr mladých ako starých.

Regionálne rozdiely

S týmito bodmi môžete súhlasiť, ale čím hlbšie o nich premýšľate, tým viac budú morálne závery znepokojujúce. Viac respondentov sa rozhodlo zachrániť zločinca pred mačkou, ale vo všeobecnosti uprednostnili psa pred zločincom. Priemerný svetový vek je vyšší ako bezdomovec, ale ľudia bez domova boli menej zachránení ako tuční ľudia.

A tieto pravidlá neboli univerzálne: respondenti z Francúzska, Spojeného kráľovstva a Spojených štátov uprednostnili mladých, zatiaľ čo respondenti z Číny a Taiwanu boli ochotnejší zachrániť starších. Respondenti z Japonska radšej zachránili chodcov pred cestujúcimi, zatiaľ čo v Číne uprednostňovali cestujúcich pred chodcami.

Vedci zistili, že by mohli zoskupiť reakcie podľa krajín do troch kategórií: „Západ“, najmä Severná Amerika a Európa, kde je morálka založená prevažne na kresťanskej doktríne; „Východ“- Japonsko, Taiwan, Blízky východ, kde prevláda konfucianizmus a islam; „Južné“krajiny vrátane Strednej a Južnej Ameriky spolu so silným francúzskym kultúrnym vplyvom. V južnom segmente je silnejšia preferencia ženskej obete ako kdekoľvek inde. Vo východnom segmente je väčšia tendencia zachraňovať mladých ľudí.

Filtrovanie podľa rôznych atribútov respondentov poskytuje nekonečné zaujímavé možnosti. „Veľmi náboženskí“respondenti pravdepodobne uprednostňujú záchranu zvierat, ale náboženskí aj nenáboženskí respondenti vyjadrujú približne rovnaké uprednostnenie záchrany ľudí s vysokým sociálnym postavením (hoci to možno povedať, že je to v rozpore s niektorými náboženskými doktrínami). Muži a ženy radšej šetria ženy, muži sú však menej ochotní to robiť.

Nezodpovedané otázky

Nikto netvrdí, že tento výskum nejako „vyrieši“všetky tieto vážne morálne problémy. Autori štúdie poznamenávajú, že crowdsourcing online údajov zahŕňa zaujatosť. Ale aj pri veľkej veľkosti vzorky bol počet otázok obmedzený. Čo ak sa riziká menia v závislosti od vášho rozhodnutia? Čo ak algoritmus dokáže vypočítať, že ste mali len 50-percentnú šancu na zabitie chodcov, vzhľadom na rýchlosť, ktorou ste sa pohybovali?

Edmond Awad, jeden z autorov štúdie, vyjadril opatrnosť v súvislosti s nadmerným výkladom výsledkov. Diskusia by podľa jeho názoru mala ísť do analýzy rizík - kto je viac-menej ohrozený - namiesto toho, aby rozhodol, kto zomrie a kto nie.

Najdôležitejším výsledkom štúdie však bola diskusia, ktorá sa rozšírila na jej pôdu. Keďže algoritmy začínajú robiť čoraz dôležitejšie rozhodnutia ovplyvňujúce životy ľudí, je nevyhnutné, aby sme neustále diskutovali o etike AI. Navrhovanie „umelého svedomia“musí zahŕňať názor každého. Aj keď odpovede nemusia byť vždy ľahké nájsť, je najlepšie sa pokúsiť vytvoriť morálny rámec pre algoritmy tým, že neumožnia algoritmom utvárať svet samy bez ľudskej kontroly.