Umelá Inteligencia Sa Ukázala Ako Rasista - Alternatívny Pohľad

Umelá Inteligencia Sa Ukázala Ako Rasista - Alternatívny Pohľad
Umelá Inteligencia Sa Ukázala Ako Rasista - Alternatívny Pohľad

Video: Umelá Inteligencia Sa Ukázala Ako Rasista - Alternatívny Pohľad

Video: Umelá Inteligencia Sa Ukázala Ako Rasista - Alternatívny Pohľad
Video: Umelá inteligencia 2024, Smieť
Anonim

Štúdia vedcov z Massachusetts Institute of Technology odhalila podrobnosti o procese analýzy údajov pomocou umelej inteligencie, ktorá sa pri rozhodovaní často riadi sexistickými a rasistickými stereotypmi. Niekoľko systémov, ktoré sa zúčastnili na experimente, preukázalo náchylnosť k ľudským predsudkom.

Britské noviny „The Daily Mail“píšu, že po prijatí výsledkov štúdie sa tím vedcov zaviazal preprogramovať umelú inteligenciu a vylúčiť tak predchádzajúce problémy. Podľa Irene Chen, ktorá pracuje v technologickom inštitúte v Massachusetts, počítačoví vedci majú tendenciu ponáhľať sa k záveru, že jediný spôsob, ako odstrániť prvky rasizmu a sexizmu v algoritmoch umelej inteligencie, je vylepšiť softvérový kód. Kvalita algoritmov je priamo úmerná údajom, na ktorých pracujú. Výskum Chena s Davidom Sontagom a Fredrikom D. Johannsonom ukazuje, že viac dostupných údajov môže radikálne zmeniť veci k lepšiemu.

V jednom experimente sa tím zaoberal systémom, ktorý na základe dostupných informácií predpovedal príjem osoby. Analýza ukázala, že v 50% prípadov je algoritmus naklonený predpovedať, že príjem ženy bude v priemere nižší ako príjem muža. 10-násobným zvýšením množstva dostupných údajov vedci zistili, že faktor takejto chyby sa znížil o 40%.

Okrem toho v štúdii systému, ktorý sa používa v nemocniciach a ktorý predpovedá prežitie pacientov podstupujúcich ťažkú operáciu, bola presnosť predpovedí oveľa menšia pre mongoloidnú rasu ako pre belochov a černochov. Vedci však tvrdia, že použitie pokročilých analytických techník môže významne znížiť presnosť predikcie u pacientov, ktorí nepatria do mongoloidnej rasy. To ukazuje, že viac dostupných údajov nemusí vždy opraviť chyby algoritmu. Namiesto toho by mali vedci získať viac informácií o diskriminovaných skupinách.

Nová metóda vyvoláva pre vedcov strojového vzdelávania ďalšiu otázku o tom, ako efektívne analyzovať údaje bez existujúcej diskriminácie.

Ako funguje strojové učenie v systémoch poháňaných AI?

Systémy umelej inteligencie sú založené na umelých neurónových sieťach (ANNs), ktoré extrapolujú techniky ukladania a učenia informácií, ktoré používa ľudský mozog, na mechanické systémy. Vyučuje sa nájsť vzory dostupných zdrojov informácií, vrátane reči, textu a obrázkov. Zlepšenie presnosti analýzy údajov je jedným zo základných predpokladov predchádzajúcich najnovšiemu vývoju umelej inteligencie.

„Normálna“umelá inteligencia využíva vstupné údaje na rozprávanie algoritmu o predmete analýzy, pričom pracuje s veľkým množstvom informácií.

Propagačné video:

Medzi praktické aplikácie strojového učenia patria prekladateľské služby Google, rozpoznávanie tváre z fotografií na Facebooku a filtre v aplikácii Snapchat, ktoré skenujú tváre pred použitím vizuálnych efektov online.

Proces zadávania údajov je často časovo náročný a zvyčajne je obmedzený tokom informácií o jednom aspekte skúmaného objektu. Nový typ ANN - generatívnej kontradiktórnej neurónovej siete - stavia proti schopnostiam dvoch rôznych robotov s umelou inteligenciou naraz a vyvoláva menej inteligentný systém učenia sa na úkor druhého bez účasti ľudí. Táto technika dramaticky zvyšuje efektívnosť a rýchlosť strojového učenia a zároveň zvyšuje kvalitu analýzy údajov.

Oliy Kurilov