Google Nechce Vytvoriť Skynet Jeden Deň, Takže Vytvára Prepínač Pre AI - Alternatívny Pohľad

Google Nechce Vytvoriť Skynet Jeden Deň, Takže Vytvára Prepínač Pre AI - Alternatívny Pohľad
Google Nechce Vytvoriť Skynet Jeden Deň, Takže Vytvára Prepínač Pre AI - Alternatívny Pohľad

Video: Google Nechce Vytvoriť Skynet Jeden Deň, Takže Vytvára Prepínač Pre AI - Alternatívny Pohľad

Video: Google Nechce Vytvoriť Skynet Jeden Deň, Takže Vytvára Prepínač Pre AI - Alternatívny Pohľad
Video: Просто делаем хорошо! 2024, Júl
Anonim

Otázky a diskusie o budúcnosti umelej inteligencie majú dve hlavné protichodné stránky. V jednom rohu sú spoločnosti ako Google, Facebook, Amazon a Microsoft, ktoré agresívne investujú do technológie, aby boli inteligentnejšie AI systémy, zatiaľ čo v iných sú veľkí myslitelia našej doby ako Elon Musk a Stephen Hawking, ktorí veria že vývoj AI je podobný „démonickému kúzlu“.

Jedna z najvyspelejších spoločností v oblasti AI, DeepMind, ktorú vlastní spoločnosť Google, vytvorila bezpečnostné opatrenia pre prípad, že človek potrebuje „prevziať kontrolu nad robotom, ktorého zlyhanie by mohlo mať nenapraviteľné následky“. Môžeme predpokladať, že hovoríme o … „zabite všetkých ľudí“. V skutočnosti samozrejme prijaté opatrenie nie je náznakom možnej apokalypsy, je to skôr o bezpečnostných opatreniach spojených s inteligentnými robotmi, ktoré fungujú a budú v budúcnosti fungovať v rôznych továrňach a závodoch.

Publikovaný dokument s predpismi je spoločnou prácou DeepMindu a Oxfordského inštitútu pre budúcnosť ľudstva, ktorý, ako už názov napovedá, sa zaoberá otázkami, ktoré umožnia tomuto ľudstvu dostať sa do budúcnosti. Zakladateľ ústavu Nick Bostrom po celé desaťročia veľmi živo hovoril o možných nebezpečenstvách rozvoja umelej inteligencie a na túto tému napísal viac ako jednu knihu, v ktorej diskutoval o dôsledkoch vytvorenia superinteligentných robotov.

Príručka, o ktorej dnes hovoríme, nazvaná „Agenti s bezpečným postihnutím“, skúma, ako zakázať AI, ak robí niečo, čo ľudský operátor nechce robiť. Práca pozostáva z rôznych výpočtov a vzorcov, ktorým 99% z nás pravdepodobne nebude rozumieť. Z tohto dôvodu hovoríme jednoducho o „červenom tlačidle“, ktoré môže deaktivovať AI.

Môžete sa smiať a čudovať sa, ale priekopníci robotiky a umelej inteligencie sledujú rovnaké sci-fi filmy, aké robíme. Tí, v ktorých roboti kedysi prišli na to, ako ignorovať príkaz na vypnutie. Takže teraz budeme na to pripravení. Publikovaný dokument opisuje metódy a riešenia, ktoré zabezpečujú, aby sa „školiteľný agent“(čítanie AI) nemohol naučiť ignorovať alebo zabrániť vplyvu vonkajšieho prostredia alebo ľudského operátora.

Môže to vyzerať ako nadmerná zručnosť, najmä ak si uvedomíte, že najpokročilejší AI je v súčasnosti na stolových hrách naozaj dobrý. Bostrom sa však domnieva, že predtým, ako začneme vytvárať AI na úrovni ľudského mozgu, je potrebné prijať vhodné opatrenia:

„Hneď ako umelá inteligencia dosiahne ľudskú úroveň, v mnohých oblastiach sa očakáva výrazný skok vo vývoji. Čoskoro potom aj samotné AI vytvoria nové AI. Stačí posúdiť tieto vyhliadky a zároveň možné riziká. Preto je lepšie ho preháňať ako nechať ujsť. ““

NIKOLAY KHIZHNYAK

Propagačné video:

Odporúčaná: