AI Môže Zmeniť Naše životy Naveky - Ale Momentálne Sme Na Temnej Ceste - Alternatívny Pohľad

AI Môže Zmeniť Naše životy Naveky - Ale Momentálne Sme Na Temnej Ceste - Alternatívny Pohľad
AI Môže Zmeniť Naše životy Naveky - Ale Momentálne Sme Na Temnej Ceste - Alternatívny Pohľad

Video: AI Môže Zmeniť Naše životy Naveky - Ale Momentálne Sme Na Temnej Ceste - Alternatívny Pohľad

Video: AI Môže Zmeniť Naše životy Naveky - Ale Momentálne Sme Na Temnej Ceste - Alternatívny Pohľad
Video: [AI Week] NCP European AI fundings for SME through Horizon Europe 2024, Smieť
Anonim

Umelá inteligencia (AI) už premieňa svet viditeľným spôsobom. Dáta poháňajú náš globálny digitálny ekosystém a technológie AI odhaľujú vzorce údajov.

Smartfóny, inteligentné domácnosti a inteligentné mestá ovplyvňujú spôsob, akým žijeme a interagujeme, a systémy umelej inteligencie sa čoraz viac zapájajú do prijímania rozhodnutí, lekárskej diagnostiky a rozhodovania. Je na nás, či je tento scenár utopický alebo dystopický.

Potenciálne riziká AI sú uvedené mnohokrát. Vrah robotov a masívna nezamestnanosť sú bežné problémy, zatiaľ čo niektorí ľudia sa dokonca boja vyhynutia. Optimistickejšie prognózy tvrdia, že AI pridá do svetovej ekonomiky do roku 2030 15 biliónov dolárov a nakoniec nás dovedie k nejakej sociálnej nirvane.

Určite musíme zvážiť vplyv, ktorý tieto technológie majú na naše spoločnosti. Jedným z hlavných problémov je, že systémy umelej inteligencie posilňujú existujúce sociálne predsudky - až do ničivého účinku.

Niekoľko notoricky známych príkladov tohto fenoménu si vyžiadalo rozsiahlu pozornosť: moderné automatizované systémy strojového prekladu a systémy rozpoznávania obrazu.

Tieto problémy vznikajú, pretože také systémy používajú matematické modely (ako sú neurónové siete) na definovanie vzorcov vo veľkých súboroch údajov o odbornej príprave. Ak sú tieto údaje rôznymi spôsobmi vážne skreslené, potom budú nevyhnutné chyby nevyhnutne študované a reprodukované vyškolenými systémami.

Predpojaté autonómne technológie sú problematické, pretože môžu potenciálne izolovať skupiny, ako sú ženy, etnické menšiny alebo staršie osoby, čím sa prehlbujú existujúce sociálne nerovnováhy.

Ak sú systémy AI vycvičené napríklad z údajov o zadržaní polície, potom akékoľvek vedomé alebo nevedomé skreslenie prejavujúce sa v existujúcich systémoch zatknutia bude duplikované systémom AI „policajnej predvídavosti“vyškoleným z týchto údajov.

Propagačné video:

Rôzne renomované organizácie, ktoré si uvedomujú vážne dôsledky, nedávno odporučili, aby všetky systémy umelej inteligencie boli vyškolené o objektívnych údajoch. V etických usmerneniach, ktoré Európska komisia uverejnila začiatkom roku 2019, sa navrhuje toto odporúčanie:

Ak sa údaje zhromažďujú, môžu obsahovať sociálne konštruované chyby, nepresnosti. Toto sa musí riešiť pred školením AI na akomkoľvek súbore údajov.

To všetko znie dosť rozumne. Bohužiaľ, niekedy nie je možné pred školením zaistiť nestrannosť určitých súborov údajov. Konkrétny príklad by to mal objasniť.

Všetky moderné systémy strojového prekladu (napríklad Google Translate) sa učia z dvojíc viet.

Anglo-francúzsky systém používa údaje, ktoré spájajú anglické vety („je vysoká“) s ekvivalentnými francúzskymi vetami („elle est grande“).

V danom súbore údajov o odbornej príprave by mohlo byť 500 miliónov takýchto párov, a teda iba jedna miliarda individuálnych viet. Ak chceme zabrániť tomu, aby sa v systéme generovali výsledky, ako sú napríklad tieto, musí byť odstránená všetka rodová zaujatosť:

Francúzsky preklad bol vytvorený pomocou služby Prekladač Google 11. októbra 2019 a je nesprávny: „Ils“je vo francúzskom jazyku mužský množné číslo a objavuje sa tu napriek kontextu jasne naznačujúcemu, že sa naň odkazuje. o ženách.

Toto je klasický príklad automatizovaného systému, ktorý uprednostňuje štandardný mužský štandard z dôvodu zaujatosti v údajoch o školení.

Celkovo je 70 percent všeobecných mien v súboroch prekladov maskulinných a 30% ženských. Dôvodom je skutočnosť, že texty používané na tieto účely sa častejšie vzťahujú na mužov ako na ženy.

Aby sa predišlo opakovaniu existujúcich chýb prekladateľského systému, bolo by potrebné vylúčiť z údajov konkrétne dvojice viet, aby sa mužské a mužské zájazdy stretli v pomere 50/50 na anglickej aj francúzskej strane. Toto zabráni systému priradenia vyšších pravdepodobností mužským zámenom.

A aj keď výsledná podmnožina údajov je úplne vyvážená z hľadiska pohlavia, bude stále skreslená rôznymi spôsobmi (napr. Etnickými alebo vekovými). V skutočnosti by bolo ťažké úplne odstrániť všetky tieto chyby.

Ak jedna osoba venuje iba päť sekúnd na prečítanie každej z jednej miliardy viet v údajoch o odbornej príprave v oblasti AI, bude trvať 159 rokov, kým sa všetky otestujú - a to predpokladá ochotu pracovať celý deň a noc bez prestávok na obed.

Alternatíva?

Preto je nereálne vyžadovať, aby boli všetky súbory údajov o odbornej príprave pred zostavením systémov AI nestranné. Takéto požiadavky na vysokej úrovni zvyčajne predpokladajú, že „AI“označuje homogénny súbor matematických modelov a algoritmických prístupov.

V skutočnosti si rôzne úlohy AI vyžadujú úplne odlišné typy systémov. A úplné podcenenie tejto rozmanitosti maskuje skutočné problémy spojené s, napríklad, vysoko zdeformovanými údajmi. To je nešťastné, pretože to zanedbáva iné riešenia problému skreslenia údajov.

Napríklad skreslenie vo vyškolenom systéme strojového prekladu sa môže výrazne znížiť, ak je systém prispôsobený potom, čo bol vyškolený na veľkom, nevyhnutne skreslenom dátovom súbore.

To sa dá dosiahnuť pomocou oveľa menšieho, menej skomoleného súboru údajov. Preto môže byť väčšina údajov veľmi skreslená, ale školený systém nie je potrebný. O týchto metódach bohužiaľ len zriedka diskutujú tí, ktorí vypracúvajú usmernenia a právne rámce pre výskum AI.

Ak systémy AI jednoducho prehĺbia existujúcu sociálnu nerovnováhu, je pravdepodobnejšie, že budú odrádzať od propagácie pozitívnych sociálnych zmien. Keby technológie AI, ktoré používame čoraz častejšie, boli oveľa menej skreslené, ako sme my, mohli by nám pomôcť rozpoznať a konfrontovať naše vlastné číhajúce predsudky.

Mali by sme sa, samozrejme, usilovať o toto. Preto musia dizajnéri AI premýšľať oveľa dôkladnejšie o sociálnych dôsledkoch systémov, ktoré vytvárajú, zatiaľ čo tí, ktorí píšu o AI, musia lepšie porozumieť tomu, ako sú systémy AI skutočne navrhnuté a vybudované.

Pretože ak sa skutočne blížime buď k technologickej idylite, alebo k apokalypse, bola by vhodnejšia prvá.

Victoria Vetrová