Prečo Je Umelá Inteligencia Posudzujúca Zločincov Nebezpečná? - Alternatívny Pohľad

Obsah:

Prečo Je Umelá Inteligencia Posudzujúca Zločincov Nebezpečná? - Alternatívny Pohľad
Prečo Je Umelá Inteligencia Posudzujúca Zločincov Nebezpečná? - Alternatívny Pohľad
Anonim

Umelá inteligencia už určitým spôsobom pomáha určovať vašu budúcnosť. Keď niečo hľadáte vo vyhľadávači, využite službu ako Netflix alebo banka vyhodnotí vašu hypotekárnu spôsobilosť. Čo sa však stane, ak umelá inteligencia musí na súde zisťovať, či ste vinní alebo nie? Je zvláštne, že v niektorých krajinách sa to už môže diať. Nedávno bol vysoký komisár USA John Roberts požiadaný, či si vie predstaviť deň, keď „inteligentné stroje riadené umelou inteligenciou budú pomáhať pri hľadaní dôkazov alebo dokonca pri súdnych rozhodnutiach“. Odpovedal: „Tento deň už nastal a významne pomáha súdnym orgánom v konaní.“

Možno sa Roberts odvolával na nedávny prípad Erica Loomisa, ktorý bol na odporúčanie tajného proprietárneho softvéru od súkromnej spoločnosti odsúdený na šesť rokov väzenia. Loomis, ktorý už mal kriminálnu minulosť a bol odsúdený za útek pred políciou v odcudzenom aute, teraz tvrdí, že bolo porušené jeho právo na konanie, pretože ani on, ani jeho zástupcovia neboli schopní preskúmať alebo spochybniť odporúčací algoritmus.

Správu pripravil softvér Compas, ktorý Notrpointe predáva lodiam. Program stelesňuje nový trend vo výskume umelej inteligencie: pomáha sudcom robiť „lepšie“(alebo aspoň viac na základe údajov založené) rozhodnutia na súde.

Aj keď konkrétne podrobnosti prípadu Loomis zostávajú uzavreté, určite obsahuje grafy a čísla, ktoré definujú Loomisov život, správanie a pravdepodobnosť relapsu. Patria sem vek, rasa, pohlavná identita, zvyky, história prehliadača a niektoré merania lebky. Nikto to nevie presnejšie.

Je známe, že prokurátor v prípade povedal sudcovi, že Loomis preukázal „vysoké riziko recidívy, násilia, prípravného konania“. Pokiaľ ide o ukladanie trestov, je to štandardné. Sudca súhlasil a povedal Loomisovi, že „Compas ho označil za osobu s vysokým rizikom pre spoločnosť“.

Najvyšší súd vo Wisconsine odsúdil Loomisa s tým, že správa spoločnosti Compas pridala k jeho rozhodnutiu cenné informácie, avšak poznamenal, že bez neho vyniesol rovnaký trest. Toto samozrejme nebudete môcť s istotou skontrolovať. Aký druh kognitívnych predsudkov môže byť, keď je všemohúci „inteligentný“systém, ako je Compas, zapojený do poradenstva sudcom, čo majú robiť?

Neznáme použitie

Propagačné video:

Povedzme si úprimne, na tom, čo urobil súd vo Wisconsine, nie je nič „nezákonné“- je to len príklad. To isté môžu a urobia aj ďalšie súdy.

Bohužiaľ nevieme, do akej miery sa pri treste používa AI a ďalšie algoritmy. Predpokladá sa, že niektoré súdy „testujú“systémy ako Compas v uzavretých procesoch, nemôžu si však nárokovať partnerstvo. Existuje tiež predstava, že niekoľko inteligentných systémov založených na umelej inteligencii vyvíja takéto inteligentné systémy.

Image
Image

Využitie umelej inteligencie v legislatíve sa však nezačína a nekončí trestom, začína sa vyšetrovaním. Spojené kráľovstvo už vyvinulo systém VALCRI, ktorý robí časovo náročnú analytickú prácu v priebehu niekoľkých sekúnd - vkráda sa cez množstvo údajov, ako sú texty, laboratórne správy a policajné dokumenty, aby izoloval veci, ktoré si môžu vyžadovať ďalšie vyšetrovanie.

Britská polícia v oblasti West Midlands bude VALCRI testovať v priebehu nasledujúcich troch rokov pomocou anonymných údajov obsahujúcich viac ako 6,5 milióna záznamov. Podobný test vykonáva aj antverpská polícia v Belgicku. V minulosti však boli AI a projekty hlbokého učenia, ktoré zahŕňali obrovské súbory údajov, problematické.

Výhody pre pár ľudí

Technológia poskytla súdnym miestnostiam mnoho užitočných pomôcok, od kopírovacích strojov, extrakcie DNA z odtlačkov prstov až po sofistikované techniky sledovania. To však neznamená, že akákoľvek technológia predstavuje vylepšenie.

Aj keď použitie AI pri vyšetrovaní a odsúdeniach môže potenciálne ušetriť čas a peniaze, predstavuje akútne problémy. Správa spoločnosti Compas od spoločnosti ProPublica objasnila, že program označil černochov mylne za viac recidivistických ako bielych. Aj tie najsofistikovanejšie systémy umelej inteligencie môžu zdediť rasové a rodové predsudky tých, ktorí ich vytvárajú.

Aký má navyše zmysel presunúť rozhodovanie (aspoň čiastočne) o otázkach, ktoré sú jedinečné pre ľudí, na algoritmus? V Spojených štátoch existujú určité ťažkosti, keď poroty skúšajú svojich kolegov. Právne normy nikdy neboli meradlom, a preto sa tieto porotné konania považujú za najdemokratickejšie a najefektívnejšie systémy usudzovania. Robíme chyby, ale časom zhromažďujeme vedomosti o tom, ako ich nerobiť, a vylepšujeme systém.

Compas a podobné systémy predstavujú čiernu skrinku v právnom systéme. Také by nemali byť. Právne systémy závisia od kontinuity, transparentnosti informácií a schopnosti kontroly. Spoločnosť nechce systém, ktorý podporuje preteky v budovaní startupov umelej inteligencie, ktoré umožňujú rýchle, lacné a exkluzívne riešenia. Narýchlo vyrobená AI bude hrozná.

Aktualizovaná verzia Compasu s otvoreným zdrojom by bola vylepšením. Najskôr však bude potrebné zvýšiť štandardy súdneho systému, skôr ako začneme presúvať zodpovednosť v prospech algoritmov.

ILYA KHEL