Umelá Inteligencia: Nebezpečný Nepriateľ Alebo Milý Pomocník - Alternatívny Pohľad

Umelá Inteligencia: Nebezpečný Nepriateľ Alebo Milý Pomocník - Alternatívny Pohľad
Umelá Inteligencia: Nebezpečný Nepriateľ Alebo Milý Pomocník - Alternatívny Pohľad

Video: Umelá Inteligencia: Nebezpečný Nepriateľ Alebo Milý Pomocník - Alternatívny Pohľad

Video: Umelá Inteligencia: Nebezpečný Nepriateľ Alebo Milý Pomocník - Alternatívny Pohľad
Video: UMELÁ INTELIGENCIA - koniec ľudstva? 2024, Smieť
Anonim

Využívanie umelej inteligencie (AI) v každodennom živote rýchlo naberá na sile, ale tento trend čoraz viac vyvoláva obavy odborníkov. Zamestnanci NYU pripravili výstražnú poznámku o rizikách používania I. I. Autori sa z veľkej časti zamerali na etické a sociálne otázky, ako aj na nedostatočnú reguláciu. Správa skupiny AI Now hovorí málo nové, ale vo svetovej praxi sa čoraz viac zvyšuje otázka potreby obmedziť prácu umelého myslenia.

Takmer všetci vizionári technologického pokroku hovorili o potenciálnych hrozbách pre AI. Stephen Hawking v novembri minulého roka vyjadril hlavné obavy, ktoré sprevádzajú úvahy o vývoji technológie. Podľa jeho názoru sa počítače skôr alebo neskôr naučia reprodukovať samy. Biologické tvory pravdepodobne stratia kremíkovú inteligenciu tak v mentálnych schopnostiach, ako aj z hľadiska adaptability na životné prostredie, najmä na inej planéte. Inteligentné roboty skôr alebo neskôr budú považovať ľudí za zastaralú formu a budú sa ich chcieť zbaviť.

Hawkingove slová znejú stále ako hororový príbeh, hrali sa mnohokrát vo filmoch a knihách, ale aj tí, ktorí pracujú na implementácii inteligentných systémov, sa s AI stále viac obávajú budúcnosti, aj keď existujú tí, ktorí takéto obavy považujú za predčasné. „Obavy z vývoja AI sú dnes ako obavy z preľudnenia Marsu,“povedal Andrew Ng, vedúci spoločnosti Google Brain. Nepoistil však všetkých.

Image
Image

Medzi najväčšie fóbie spojené so zavedením počítača do všetkých sfér života patria tri. Po prvé, počítačová myseľ bude použitá ako vojnová zbraň, ktorá výrazne predčí dokonca aj jadrové zbrane v deštruktívnej sile. Druhým je, že AI bude zotročovať ľudí. Po tretie, ako každé ľudské stvorenie, aj počítač je náchylný na chyby. O všetkých troch bodoch sa dá diskutovať podrobnejšie.

21. augusta 2017 vedúci odborníci v oblasti výskumu a implementácie umelej inteligencie vrátane vedúcich spoločností, ako sú SpaceX a Deep Mind, zaslali OSN otvorený list. V texte varovali svetovú komunitu pred vývojom smrtiacich autonómnych zbraní, či už ide o roboty alebo iné mechanizmy určené na zabitie nepriateľa. Autori dokumentu upozornili na fatálne následky použitia takýchto zbraní. Vďaka svojej fenomenálnej účinnosti je spravodlivé opýtať sa, do ktorých rúk bude spadať. Môže ho používať úzky okruh elít a teroristov.

Autori listu vyzvali kontrolnú organizáciu a spolu s ňou aj vedeckú komunitu, aby načrtli rozsah škodlivého použitia AI. Zodpovednosť, ktorú človek čelí za svoj vlastný výtvor, ho zaväzuje vykonávať serióznu prácu, aby sa predišlo rizikám. Okrem zákonov by ich tvorcovia mali obmedzovať výkon robotov, ktorí budú musieť v extrémnych prípadoch zložiť spôsob, ako vypnúť stroje.

Image
Image

Propagačné video:

Politické zneužívanie elektronických systémov sa už preukázalo prostredníctvom práce na sociálnych sieťach a algoritmoch analýzy údajov. Na jar tohto roku vo svete zaútočil škandál s Cambridge Analytica. Jeho špecialisti vykonali hĺbkovú analýzu užívateľských údajov a umiestnili reklamy na Facebook, prispôsobené individuálne pre každú osobu.

Zamestnanci spoločnosti nielen prekračovali etický rámec, ale uplatňovali aj moderné technológie, ktorých prácu nebolo možné analyzovať. Účinnosť strojového učenia je stále sa opakujúcou témou popredných matematikov. Jednohlasne pripúšťajú, že sú ohromení mimoriadnym úspechom počítačových programov, ale nie sú úplne schopní pochopiť prácu komplexného systému. V Mjanmarsku v apríli tohto roku spôsobili príspevky na Facebooku aj nepokoje medzi masami, ale na rozdiel od Spojených štátov, kde sa protesty konali, v ázijskom štáte došlo k masakru, ktorý zabil niekoľko stoviek ľudí. Manipulácia s veľkým počtom ľudí je realitou a roboti tu môžu s nami hrať krutý vtip.

Image
Image

Je potrebné pripomenúť si ten istý Facebook, na ktorom boli spustené Chatboty založené na AI. Virtuálni asistenti boli vyškolení na vedenie dialógu so partnerom. Postupom času sa roboty nerozoznali od skutočných ľudí a autori sa rozhodli robotov spojiť. Postupom času začali roboti skracovávať lexikálne štruktúry a vymieňať si klzáky. Médiá nafúkli pocity zo správ, hovoria „stroje sa vzbúrili“. Odhliadnuc od preháňania novinárov, je spravodlivé pripustiť, že v prípade, keď stroje začnú navzájom komunikovať, si to človek nemusí všimnúť. A ako tam budú žiť svoj vlastný život - nikto nevie.

Stále zložitejšia štruktúra počítačovej mysle nás každý deň odstraňuje od chápania princípov jej práce. Ale zatiaľ čo väčšina algoritmov vykonáva svoju prácu, aj dnes nie sú zložité stroje zďaleka ideálne a robia chyby. Pre ďalší rozvoj AI je dôležité porozumieť nie len tak silným stránkam, ako sú jeho zraniteľné miesta. Zameriava sa na to veľké množstvo vedeckých skupín, z ktorých v jednej je špecialista z MIT Anish atali. Pred pár dňami povedal novinárom o najbežnejších chybách v systémoch rozpoznávania obrázkov.

Jeho kolegovia demonštrovali objekty na stroji a zistili, že často boli jednotlivé objekty elektronickým videním nesprávne vnímané. Počítač mohol nazvať baseball šálkou kávy a korytnačkou s potlačou 3D armádny stroj. Skupina už zhromaždila asi 200 položiek, ktoré sú zavádzajúcimi algoritmami.

Image
Image

Umelá inteligencia sa namiesto vnímania objektu ako celku sústredila na svoje jednotlivé parametre. AI má tendenciu učiť sa z „dokonalej“vzorky. Keď čelí nezhodným fenoménom, nemôže sa vždy vzdať zvyčajného procesu spracovania. Namiesto toho, aby pripustil svoju neschopnosť spracovať obraz, naďalej sa snaží prečítať tento obrázok, čo vedie k niekedy aj zábavným výsledkom. Namiesto tvaru korytnačky sa elektronický mozog snažil prečítať textúru podobnú kamufláži. Z približne toho istého dôvodu nie sú autopiloty e-automobilov ešte stopercentne spoľahlivé. Pre auto je ťažké vidieť siluetu a predpokladať, že sa skladá zo samostatných prvkov.

Ak sa v nadchádzajúcich rokoch dajú niektoré nedostatky napraviť, neexistuje žiadna záruka, že hackeri túto zraniteľnosť nevyužijú. Hackeri elektronických zariadení dnes predstavujú takmer hlavnú príčinu strachu. Malý tím programátorov môže nielen získať prístup k osobným informáciám, ale aj prekonfigurovať autonómne systémy a prevziať kontrolu nad nástrojmi kolosálnej moci. A potom budeme všetci v problémoch. Ale hlavným záverom, ktorý možno vyvodiť, je možno ten tradičný - nemali by ste sa báť automobilov, ale ľudí.

Alexander Lavrenov