Vrah Robotov? Zastavte, Dokonca Aj Dobrí Roboti Sú Strašne Nepredvídateľní - Alternatívny Pohľad

Obsah:

Vrah Robotov? Zastavte, Dokonca Aj Dobrí Roboti Sú Strašne Nepredvídateľní - Alternatívny Pohľad
Vrah Robotov? Zastavte, Dokonca Aj Dobrí Roboti Sú Strašne Nepredvídateľní - Alternatívny Pohľad

Video: Vrah Robotov? Zastavte, Dokonca Aj Dobrí Roboti Sú Strašne Nepredvídateľní - Alternatívny Pohľad

Video: Vrah Robotov? Zastavte, Dokonca Aj Dobrí Roboti Sú Strašne Nepredvídateľní - Alternatívny Pohľad
Video: Арпо стал ЗОМБИ | Робот Арпо | Детские песни | Сборник мультиков | @ARPO The Robot 2024, Október
Anonim

Lídri viac ako stovky popredných svetových spoločností v oblasti umelej inteligencie sa veľmi zaujímajú o vývoj „zabijakov“. V otvorenom liste adresovanom OSN títo vedúci predstavitelia podnikov, vrátane Elona Muska z Tesly a zakladateľov spoločnosti DeepMind spoločnosti Google, varovali, že použitie technológie autonómnych zbraní môžu byť teroristami a despotmi adoptovaní alebo do istej miery hacknutí.

Skutočná hrozba je však oveľa vážnejšia - a nie je to len ľudský priestupok, ale aj nesprávne úmysly. Preskúmanie zložitých systémov ukazuje, že sa môžu správať oveľa nepredvídateľnejšie, ako je možné odvodiť zo súčtu jednotlivých opatrení. Na jednej strane to znamená, že ľudská spoločnosť sa môže správať veľmi odlišne, ako by ste mohli očakávať štúdiom správania jednotlivcov. Na druhej strane to isté platí pre technológiu. Dokonca aj ekosystémy jednoduchých programov umelej inteligencie, ktoré nazývame hlúpymi, dobrými robotmi, nás môžu prekvapiť. Dokonca aj jednotlivé roboty sa môžu správať hrozne.

Jednotlivé prvky, ktoré tvoria zložité systémy, ako sú hospodárske trhy alebo globálne počasie, nemajú tendenciu interagovať jednoduchým lineárnym spôsobom. Preto je veľmi ťažké tieto systémy modelovať a porozumieť im. Napríklad ani po rokoch výskumu v oblasti klímy nie je možné predpovedať dlhodobé správanie počasia. Tieto systémy sú rovnako citlivé na najmenšie zmeny, keď reagujú výbušne. Je veľmi ťažké poznať presný stav takého systému v danom okamihu. To všetko robí tieto systémy vnútorne nepredvídateľnými.

Všetky tieto princípy sa vzťahujú na veľké skupiny ľudí, ktoré konajú svojím vlastným spôsobom, či už ide o ľudské spoločnosti alebo skupiny robotov AI. Vedci nedávno študovali typ komplexného systému, ktorý používal dobré roboty na automatickú úpravu článkov z Wikipédie. Tieto rôzne roboty sú navrhnuté, napísané a používané dôveryhodnými editormi Wikipedia a ich základný softvér je otvorený zdroj a je k dispozícii každému. Jednotlivo majú spoločný cieľ zlepšiť encyklopédiu. Ich kolektívne správanie sa však ukázalo byť prekvapivo neúčinné.

Základom fungovania týchto robotov na Wikipédii sú zavedené pravidlá a konvencie, ale keďže webová stránka nemá centrálny kontrolný systém, neexistuje efektívna koordinácia medzi ľuďmi, ktorí prevádzkujú rôzne roboty. Výsledky odhalili pár robotov, ktorí zrušili vzájomné úpravy na niekoľko rokov a nikto si toho nevšimol. A samozrejme, pretože títo roboti sa vôbec nenaučia, nevšimli si ich.

Tieto roboty sú navrhnuté tak, aby urýchlili proces úprav. Malé rozdiely v dizajne robotov alebo medzi ľuďmi, ktorí ich používajú, by však mohli viesť k obrovskému plytvaniu prostriedkami v prebiehajúcej „editovacej vojne“, ktorú by redaktori mohli vyriešiť oveľa rýchlejšie.

Vedci tiež zistili, že roboti sa v rôznych jazykových verziách Wikipédie správali inak. Zdá sa, že pravidlá sú takmer rovnaké, ciele sú rovnaké, technológie sú podobné. Na Wikipédii v nemeckom jazyku bola však spolupráca s botmi omnoho účinnejšia a produktívnejšia ako napríklad v portugalčine. Dá sa to vysvetliť iba rozdielmi medzi ľudskými editormi, ktorí tieto roboty prevádzkovali v rôznych prostrediach.

Propagačné video:

Exponenciálny zmätok

Boti z Wikipedia nemajú širokú autonómiu a systém už nefunguje v súlade s cieľmi jednotlivých robotov. Nadácia Wikimedia Foundation však plánuje používať AI, ktoré týmto robotom dá väčšiu autonómiu. A to pravdepodobne povedie k ešte nepredvídateľnejšiemu správaniu.

Dobrým príkladom toho, čo sa môže stať, je ukázať robotom, ktorých cieľom je hovoriť s ľuďmi, keď sú nútení navzájom komunikovať. Reakcie osobných asistentov, ako je Siri, nás už neprekvapujú. Ale prinútte ich, aby medzi sebou komunikovali a rýchlo sa začnú správať neočakávaným spôsobom, hádajú sa a dokonca sa urážajú.

Čím väčší je systém a čím autonómnejší je každý robot, tým zložitejšie a nepredvídateľnejšie bude budúce správanie tohto systému. Wikipedia je príkladom veľkého počtu relatívne jednoduchých robotov v práci. Príklad chatbotu je príkladom malého počtu relatívne zložitých a vynaliezavých robotov - v obidvoch prípadoch vznikajú nepredvídané konflikty. S pribúdajúcou osobnosťou do systému narastá zložitosť, a teda nepredvídateľnosť. Preto, keď sa v budúcnosti objavia systémy s veľkým počtom veľmi zložitých robotov, ich nepredvídateľnosť prekročí naše predstavy.

Žiarivé šialenstvo

Napríklad vozidlá s vlastným riadením sľubujú, že dosiahnu prielom v účinnosti a bezpečnosti na cestách. Zatiaľ však nevieme, čo sa stane, keď budeme mať veľký divoký systém plne autonómnych vozidiel. V kontrolovanom prostredí sa môžu správať odlišne aj v malom vozovom parku jednotlivých vozidiel. A ešte viac nepredvídateľné správanie sa môže prejaviť, keď vozidlá s vlastným riadením, ktoré „trénujú“rôzni ľudia na rôznych miestach, začnú navzájom komunikovať.

Ľudia sa môžu relatívne rýchlo prispôsobiť novým pravidlám a dohovorom, majú však problémy s prepínaním medzi systémami. Umelé látky môžu byť ešte ťažšie. Napríklad, ak napríklad vozidlo „vyškolené v Nemecku“cestuje do Talianska, nevieme, ako zvládne nepísané kultúrne konvencie, ktoré dodržujú mnohé ďalšie vozidlá „vyškolené v Taliansku“. Niečo obyčajné, ako napríklad križovatka, sa môže stať smrteľne riskantným, pretože jednoducho nevieme, či autá budú interagovať podľa očakávania, alebo či sa budú správať nepredvídateľne.

Teraz premýšľajte o vražedných robotoch, ktoré obťažujú Muska a jeho kolegov. Jeden zabijací robot môže byť v nesprávnych rukách veľmi nebezpečný. A čo systém nepredvídateľných zabijakov? Mysli za seba.

Ilja Khel