Umelá Inteligencia Môže Nezávisle Rozvíjať Predsudky - Alternatívny Pohľad

Umelá Inteligencia Môže Nezávisle Rozvíjať Predsudky - Alternatívny Pohľad
Umelá Inteligencia Môže Nezávisle Rozvíjať Predsudky - Alternatívny Pohľad

Video: Umelá Inteligencia Môže Nezávisle Rozvíjať Predsudky - Alternatívny Pohľad

Video: Umelá Inteligencia Môže Nezávisle Rozvíjať Predsudky - Alternatívny Pohľad
Video: Umelá inteligencia | Ako človek prehral s počítačom 2024, Smieť
Anonim

Nová štúdia ukázala, že prejavovanie predsudkov voči iným nevyžaduje osobitnú inteligenciu a môže sa ľahko rozvíjať v umelo inteligentných strojoch.

Psychológovia a špecialisti na informačné technológie na University of Cardiff a MIT preukázali, že skupiny autonómnych strojov môžu prejavovať zaujatosti jednoduchým definovaním takéhoto správania, jeho kopírovaním a vzájomnou výučbou.

Mohlo by sa zdať, že zaujatosť je čisto ľudským fenoménom, ktorý vyžaduje, aby ľudská inteligencia utvárala názory alebo stereotypy o osobe alebo skupine. Zatiaľ čo niektoré typy počítačových algoritmov už prejavili zaujatosť, napríklad rasizmus a sexizmus na základe štúdia verejných záznamov a iných údajov generovaných človekom, nová práca demonštruje schopnosť spoločnosti AI rozvíjať skreslené skupiny.

Výskum je publikovaný vo vedeckých správach. Je založená na počítačových simuláciách toho, ako môžu predpojatí virtuálni agenti tvoriť skupiny a vzájomne pôsobiť. Počas simulácie sa každý jednotlivec rozhodne, či má pomôcť niekomu zo svojej skupiny alebo inej, v závislosti od reputácie tohto jednotlivca, ako aj od jeho vlastnej stratégie, ktorá zahŕňa mieru predsudkov voči cudzincom. Po vykonaní tisícok simulácií sa každý jednotlivec učí novými stratégiami kopírovaním ostatných - či už sú členmi vlastnej skupiny alebo celej „populácie“.

Relatívna kumulatívna frekvencia charakteristík agentov podľa úrovne predsudkov / Roger M. Whitaker
Relatívna kumulatívna frekvencia charakteristík agentov podľa úrovne predsudkov / Roger M. Whitaker

Relatívna kumulatívna frekvencia charakteristík agentov podľa úrovne predsudkov / Roger M. Whitaker.

„Po tisíckrát a tisíckrát za sebou týchto simuláciách sme začali chápať, ako sa vyvíja zaujatosť a aké podmienky sú potrebné na jej kultiváciu alebo prevenciu,“uviedol spoluautor štúdie profesor Roger Whitaker z Inštitútu pre výskum kriminality a bezpečnosti a Školy počítačov a informatiky na Cardiffskej univerzite. „Naše simulácie ukazujú, že zaujatosť je silnou silou prírody a prostredníctvom evolúcie ju možno stimulovať vo virtuálnych populáciách, aby poškodili širšie vzťahy s ostatnými. Ochrana pred poškodenými skupinami môže neúmyselne viesť k vytvoreniu ďalších poškodených skupín, čo môže viesť k väčšiemu rozdeleniu obyvateľstva. Takéto rozšírené predsudky je ťažké zvrátiť. “

Údaje z výskumu zahŕňajú aj jednotlivcov, ktorí zvyšujú svoju úroveň zaujatosti preferenčným kopírovaním tých, ktorí dosahujú najlepšie krátkodobé výsledky, čo zase znamená, že takéto rozhodnutia si nevyhnutne nevyžadujú špeciálne schopnosti.

„Je celkom pravdepodobné, že autonómne stroje, ktoré sa dokážu identifikovať s diskrimináciou a kopírovať ostatné, môžu byť v budúcnosti náchylné k javom predsudkov, ktoré vidíme v spoločnosti,“pokračuje profesor Whitaker. „Mnoho vývojov AI, ktoré dnes vidíme, zahŕňajú autonómiu a sebakontrolu, to znamená, že správanie zariadení je tiež ovplyvňované tými, ktorí sú okolo nich. Medzi nedávne príklady patrí doprava a internet vecí. Náš výskum poskytuje teoretický pohľad na to, kde sa simulovaní agenti pravidelne obracajú na iné zdroje. “

Propagačné video:

Vedci tiež zistili, že za určitých podmienok, vrátane prítomnosti viac rozdelených subpopulácií tej istej spoločnosti, je ťažšie posilniť zaujatosť.

„Pri veľkom počte subpopulácií môžu nestranné skupinové zväzy spolupracovať bez toho, aby boli vykorisťované. Znižuje sa tým aj ich štatút menšín a zároveň sa znižuje ich náchylnosť na zaujatosť. Vyžaduje si to však aj okolnosti, za ktorých sú agenti priaznivejšie naklonení interakciám mimo svojej skupiny, “uzavrel profesor Whitaker.

Vladimir Guillen