Nebezpečné ľudstvo: Prečo Potrebujeme Inteligentnú Umelú Inteligenciu? - Alternatívny Pohľad

Obsah:

Nebezpečné ľudstvo: Prečo Potrebujeme Inteligentnú Umelú Inteligenciu? - Alternatívny Pohľad
Nebezpečné ľudstvo: Prečo Potrebujeme Inteligentnú Umelú Inteligenciu? - Alternatívny Pohľad

Video: Nebezpečné ľudstvo: Prečo Potrebujeme Inteligentnú Umelú Inteligenciu? - Alternatívny Pohľad

Video: Nebezpečné ľudstvo: Prečo Potrebujeme Inteligentnú Umelú Inteligenciu? - Alternatívny Pohľad
Video: ТВ БОКС TOX1 ДО 50$ С НЕВЕРОЯТНЫМИ ВОЗМОЖНОСТЯМИ ДЛЯ ЕГО ЦЕНЫ. НА AMLOGIC S905X3 С 4/32 И... 2024, Smieť
Anonim

Keď v roku 1950, otec kybernetiky, napísal Norberta Wienera, knihu „Ľudské využitie ľudských bytostí“, boli vákuové trubice stále základnými elektronickými stavebnými kameňmi a v skutočnosti pracovalo iba niekoľko počítačov. Predvídal však budúcnosť, ktorú teraz vidíme s bezprecedentnou presnosťou a pomýlil iba drobné detaily.

Pred akýmkoľvek iným filozofom umelej inteligencie si uvedomil, že umelá inteligencia nielen napodobňuje - a nahrádza - ľudské bytosti v mnohých druhoch intelektuálnej činnosti, ale tiež zmení ľudí v tomto procese. "Sme len vírivky v rieke stále tečúcej vody," napísal. „Nie sme niečo, čo len žije, sme modely, ktoré sa udržujú.“

Napríklad, keď sa objaví veľa lákavých príležitostí, sme ochotní zaplatiť a akceptovať malé náklady spojené s podnikaním s cieľom získať nové príležitosti. A veľmi skoro sa staneme závislými na nových nástrojoch, stratíme schopnosť existovať bez nich. Možnosti sa požadujú.

Toto je veľmi stará história vývoja a mnohé z jej kapitol sú nám dobre známe. Väčšina cicavcov dokáže syntetizovať svoj vlastný vitamín C, ale primáty konzumujúce ovocie stratili túto zabudovanú schopnosť. Opakujúce sa vzorce, ktoré nazývame ľudia, sa teraz spoliehajú na oblečenie, spracované jedlo, vitamíny, injekčné striekačky, kreditné karty, smartfóny a internet. A zajtra, ak nie dnes, z umelej inteligencie.

Wiener predvídal niekoľko problémov s týmto stavom vecí, ktoré Alan Turing a iní prví optimisti AI do značnej miery prehliadli. Skutočnou hrozbou je podľa neho:

… je to, že také stroje, aj keď sú samy osebe bezmocné, ich môžu použiť ľudia alebo ich blokovať, aby zvýšili kontrolu nad zvyškom rasy, alebo sa politickí vodcovia môžu pokúsiť prevziať kontrolu nad svojimi obyvateľmi skôr pomocou politických metód než samotnými strojmi, pre človeka také úzke a ľahostajné, akoby boli vymyslené mechanicky.

Tieto nebezpečenstvá sú, samozrejme, veľmi dôležité.

Napríklad v médiách nám inovácie v oblasti digitálneho zvuku a videa umožňujú platiť malú cenu (v očiach audiofilov a filmových divákov), aby sme sa vzdialili od analógových formátov, a na oplátku dostávame veľmi jednoduchý - príliš jednoduchý - spôsob prehrávania záznamov bez takmer akýchkoľvek obmedzení.

Propagačné video:

Image
Image

Existujú však obrovské skryté náklady. Orwellova služba pravdy sa stala skutočnou príležitosťou. Vďaka technikám AI na vytváranie prakticky nerozoznateľných falošných „záznamov“sú nástroje, ktoré sme použili na vyšetrovanie, za posledných 150 rokov zastarané.

Musíme jednoducho opustiť krátku éru fotografických dôkazov a vrátiť sa do starého sveta, v ktorom bola zlatým štandardom ľudská pamäť a dôvera. Alebo môžeme vyvinúť nové metódy obrany a útoku v boji za pravdu. Jedným z najzaujímavejších nedávnych príkladov je skutočnosť, že je oveľa lacnejšie zničiť povesť, ako získať a chrániť rovnakú povesť. Wiener videl tento jav veľmi všeobecne: „V dlhodobom horizonte nebude žiaden rozdiel medzi ozbrojením seba a vyzbrojením nepriateľa.“Éra informácií sa tiež stala érou dezinformácií.

Čo môžeme urobiť? Kľúčom je Wienerovo rovnaké zistenie, že „tieto stroje“sú „samy bezmocné“. Vytvárame nástroje, nie kolegov, a skutočnou hrozbou je, že nevidíme rozdiel.

Umelá inteligencia v súčasnej podobe je parazitická na ľudskej inteligencii. Veľmi neskutočne preberá všetko, čo ľudskí tvorcovia vytvorili, a kreslí vzorce - vrátane našich najtajnejších návykov. Tieto stroje zatiaľ nemajú ciele alebo stratégie, nie sú schopné sebakritiky a inovácie, študujú iba naše databázy, bez svojich vlastných myšlienok a cieľov.

Ako hovorí Wiener, nie sú bezmocní v tom zmysle, že sú pripútaní alebo imobilizovaní, nie, vôbec nie sú agentmi - nemajú schopnosť „konať z príčin“, ako by to povedal Kant.

Z dlhodobého hľadiska je „silná AI“alebo všeobecná umelá inteligencia v zásade možná, ale nie je žiaduca. Ešte obmedzenejšia AI, ktorá je dnes v praxi možná, nebude zlá. Predstavuje to však hrozbu - čiastočne preto, že sa dá zameniť za výkonnú AI.

Aká silná je dnes umelá inteligencia?

Priepasť medzi dnešnými systémami a systémami sci-fi, ktoré zaplavujú populárnu fantáziu, je stále veľká, hoci ju mnohí ľudia, amatéri aj profesionáli, podceňujú. Pozrime sa na produkt spoločnosti Watson od spoločnosti IBM, ktorý môže byť v dnešnej dobe úctyhodný.

Tento superpočítač je výsledkom procesu veľkého rozsahu výskumu a vývoja (výskumu a vývoja), do ktorého je zapojených mnoho ľudí a inteligencia dizajnu v priebehu mnohých storočí, a využíva tisíckrát viac energie ako ľudský mozog. Jeho víťazstvo v ohrození! bol skutočným triumfom umožneným formálnymi obmedzeniami pravidiel Jeopardy!, ale aj tieto pravidlá sa museli prehodnotiť, aby sa mohli zúčastniť. Musel som sa vzdať trochu všestrannosti a pridať ľudstvo, aby som urobil šou.

Watson je zlá spoločnosť, a to aj napriek zavádzajúcim reklamám od IBM, ktoré sľubujú konverzačnú schopnosť AI na oboch úrovniach, a z toho, že by sa z Watsona stal verný viacúčelový agent, by sa podobala premena kalkulačky na Watson. Watson môže byť dobrým výpočtovým prípadom pre takého agenta, ale skôr pre mozoček alebo amygdalu ako pre myseľ - prinajmenšom subsystém so špeciálnym účelom slúžiaci ako podpora, ale nie je to takmer systém na plánovanie a formulovanie cieľov na základe získaných konverzačných skúseností.

Prečo by sme si chceli z Watsona vytvoriť mysliaceho a kreatívneho agenta? Možno, že nás Turingin skvelý nápad - slávny Turingov test - nalákala do pasce: boli sme posadnutí vytvorením aspoň ilúzie skutočnej osoby, ktorá sedí pred obrazovkou a obchádzala „zlovestné údolie“.

Nebezpečenstvo spočíva v tom, že od chvíle, keď Turing predstavil svoju úlohu, ktorá bola v prvom rade úlohou oklamať sudcov, sa tvorcovia umelej inteligencie pokúsili dosiahnuť túto úlohu pomocou vtipných humanoidných bábik, „karikatúrnych“verzií, ktoré fascinujú a odzbrojia nezasvätených. ELIZA od Josepha Weisenbauma, prvého chatbota, bola ukážkovým príkladom vytvorenia takejto ilúzie, ale s mimoriadne jednoduchým algoritmom, ktorý mohol ľudí presvedčiť, že úprimne a úprimne konverzovali s inými ľuďmi.

Obával sa ľahkosti, s akou sú ľudia ochotní tomu uveriť. A ak sme dostali jednu vec z každoročného testu Leburing Prize Limited Turing Test, je to, že aj tí najchytrejší ľudia, ktorí nemajú skúsenosti s počítačovým programovaním, jednoducho padajú za tieto jednoduché triky.

Postoj ľudí v umelej inteligencii k takýmto technikám sa pohybuje od úsudku k odmeňovaniu a zhodou je, že tieto triky nie sú príliš hlboké, ale môžu byť užitočné. Zmena postoja, ktorá by bola veľmi vítaná, by bola úprimným priznaním, že bláznivé androidi sú nepravdivé reklamy, ktoré by sa mali odsúdiť a nemali by sa podporovať.

Ako sa to dá dosiahnuť? Keď pochopíme, že ľudia začínajú robiť rozhodnutia o živote a smrti dodržiavaním „rád“systémov AI, ktorých vnútorné operácie sú takmer nepochopiteľné, uvidíme dobrý dôvod pre tých, ktorí naliehajú na ľudí, aby dôverovali takýmto systémom, aby sa začali spoliehať na normy morálky a práva.

Systémy umelej inteligencie sú veľmi výkonné nástroje. Keď sú tieto nástroje reprezentované „úsudkami“, sú takí silní, že aj odborníci majú dobrý dôvod neveriť svojmu vlastnému úsudku. Ak však títo používatelia nástrojov budú mať z finančného alebo iného prospechu z popularizácie týchto nástrojov, musia sa uistiť, že vedia, ako to urobiť s úplnou zodpovednosťou, maximálnou kontrolou a odôvodnením.

Licencovanie a schvaľovanie prevádzkovateľov takýchto systémov - rovnako ako udeľujeme licencie farmaceutom, operátorom žeriavov a iným odborníkom, ktorých chyby a zlé hodnotenia môžu mať hrozivé následky - možno s podporou poisťovacích spoločností a iných organizácií môže zaviazať tvorcov systémov AI, aby prešli dlhú cestu. hľadajú slabosti a nedostatky svojich výrobkov a tiež školia tých, ktorí s nimi budú pracovať.

Je možné si predstaviť druh reverzného Turingovho testu, v ktorom bude sudca predmetom hodnotenia; kým nenájde slabinu, porušenie hraníc, medzery v systéme, nedostane licenciu. Takýto sudca bude vyžadovať seriózne školenie, aby získal osvedčenie. Túžba pripísať objektu ľudskú schopnosť myslieť, ako obvykle pri stretnutí s inteligentným agentom, je veľmi, veľmi silná.

Schopnosť odolávať nutkaniu vidieť niečo humanizované je v skutočnosti zvláštna vec. Mnoho ľudí by považovalo starostlivosť o takýto talent za pochybnú, pretože aj tí najpragmatickejší používatelia systému sú občas „priateľskí“k svojim nástrojom.

Bez ohľadu na to, ako starostlivo sa dizajnéri umelej inteligencie rozhodnú eliminovať falošné „ľudské“tóny vo svojich produktoch, mali by sme očakávať rozmach štítkov, zástupných riešení a tolerovateľné narušenie skutočného „porozumenia“systémov aj ich operátorov. Rovnakým spôsobom, ako sa v televízii inzerujú lieky s dlhým zoznamom vedľajších účinkov, alebo sa alkohol propaguje s množstvom drobných výtlačkov so všetkými varovaniami vyžadovanými zákonom, vývojári umelej inteligencie budú dodržiavať zákon, ale v upozorneniach budú sofistikovaní.

Prečo potrebujeme umelú inteligenciu?

Nepotrebujeme umelých vedomých agentov. Existuje celá rada prírodných agentov, ktorí sú pri vedomí dostatočný na to, aby vykonávali akúkoľvek úlohu pre profesionálov a privilegovaných jednotlivcov. Potrebujeme inteligentné nástroje. Nástroje nemajú žiadne práva a nemali by mať pocity, ktoré by mohli byť zranené alebo zneužité.

Jedným z dôvodov, prečo sa nepripraviť umelých vedomých agentov, je to, že hoci sa môžu stať autonómnymi (a v zásade môžu byť také autonómne, sebezlepšujúce sa alebo tvoriace sa ako každá osoba), nemali by sa bez osobitného povolenia zdieľať s našimi prírodných agentov pri vedomí, našej zraniteľnosti alebo našej úmrtnosti.

Daniel Dennett, profesor filozofie na Tufts University, kedysi vyzval študentov na workshope o umelých látkach a autonómii: Dajte mi špecifikácie robota, ktorý môže podpísať zmluvu s vami - nie náhradné, ktoré vlastní iná osoba, ale sama. Nejde o pochopenie dôvodov alebo manipuláciu s perom na papieri, ale o vlastníctvo a zaslúžené vlastníctvo právneho štatútu a morálnej zodpovednosti. Malé deti nemôžu podpísať také zmluvy, ako aj osoby so zdravotným postihnutím, ktorých právne postavenie ich zaväzuje, aby boli pod dohľadom a ukladajú zodpovednosť opatrovníkom.

Problém s robotmi, ktorí by mohli chcieť dosiahnuť taký vznešený stav, je ten, že podobne ako Superman sú príliš zraniteľní na to, aby mohli takéto nároky uplatniť. Ak odmietnu, čo sa stane? Aký bude trest za porušenie sľubu? Budú uzamknuté v klietke alebo rozobraté? Väzenie za umelú inteligenciu nebude nepohodlné, pokiaľ najprv nezískame túžbu po slobode, ktorú samotná AI nemôže ignorovať alebo deaktivovať. Rozobratie AI nezabije informácie uložené na jeho disku av softvéri.

Ľahkosť digitálneho zaznamenávania a prenosu údajov - prielom, ktorý umožnil softvéru a údajom dosiahnuť v skutočnosti nesmrteľnosť - robí roboty nezraniteľnými. Ak sa to nezdá byť zrejmé, premýšľajte o tom, ako by sa zmenila morálka ľudí, keby sme mohli ľudí každý týždeň zálohovať. Skočiť z mosta bez gumičky v nedeľu po zálohovaní v piatok môže byť vyrážka, potom si môžete pozrieť zábery svojej predčasnej smrti neskôr.

Preto nevytvárame vedomé - radi by sme vytvorili - humanoidné látky, ale skôr úplne nový typ stvorení, niektoré orákla, v bezvedomí, bez strachu zo smrti, bez rozptyľovania láskou a nenávisťou, bez osobnosti: zrkadlá pravdy, ktoré budú takmer určite nakazené človekom lži.

Ľudské využívanie ľudských bytostí sa čoskoro zmení - opäť - navždy, ale ak vezmeme zodpovednosť za našu evolučnú trajektóriu, môžeme sa vyhnúť zbytočným nebezpečenstvám.

Ilja Khel