Do Roku 2040 Môže Umelá Inteligencia Prevratne Ovplyvniť Zásady Jadrovej Bezpečnosti - Alternatívny Pohľad

Do Roku 2040 Môže Umelá Inteligencia Prevratne Ovplyvniť Zásady Jadrovej Bezpečnosti - Alternatívny Pohľad
Do Roku 2040 Môže Umelá Inteligencia Prevratne Ovplyvniť Zásady Jadrovej Bezpečnosti - Alternatívny Pohľad

Video: Do Roku 2040 Môže Umelá Inteligencia Prevratne Ovplyvniť Zásady Jadrovej Bezpečnosti - Alternatívny Pohľad

Video: Do Roku 2040 Môže Umelá Inteligencia Prevratne Ovplyvniť Zásady Jadrovej Bezpečnosti - Alternatívny Pohľad
Video: Umelá inteligencia sa uplatní aj v maloobchode 2024, Smieť
Anonim

Nedávno uverejnená štúdia spoločnosti RAND Corporation dospela k záveru, že do roku 2040 by umelá inteligencia (AI) mohla radikálne zmeniť koncepciu jadrového odrádzania.

Zdá sa, že stroj Doomsday poháňaný AI je nepravdepodobný, ale skutočné riziká AI pre jadrovú bezpečnosť spočívajú v schopnosti AI prinútiť ľudí, aby robili neoprávnené, potenciálne apokalyptické rozhodnutia.

Počas studenej vojny si koncept zaisteného vzájomného ničenia zachoval neistý mier medzi superveľmocami a tvrdil, že akýkoľvek útok by mal za následok zničujúcu odvetu. Výsledkom bolo, že koncepcia HLG zabezpečila strategickú stabilitu, pričom vytrvalo pôsobila na oboch stranách v pripravenosti na činy, ktoré by sa mohli skutočne vyvinúť do atómovej vojny.

Publikácia RAND hovorí, že AI je v nasledujúcich desaťročiach celkom schopná zničiť koncepciu zaisteného vzájomného ničenia, a tým podkopať strategickú stabilitu nášho sveta. Vďaka sofistikovanejším senzorom je možné identifikovať a zničiť „nástroje odvetných opatrení“- napríklad jadrové ponorky a mobilné rakety.

Národy môžu byť v pokušení hľadať aktíva prvého štrajku, akoby to bola výhoda oproti ich súperom, aj keď nemajú v úmysle štrajkovať ako prvé. To podkopáva stabilitu v tom, že aj keď strana, ktorá je schopná útočiť ako prvá, túto príležitosť nevyužije, jej oponent si ju nemôže byť istý.

„Prepojenie medzi jadrovou vojnou a AI nie je nové, príbehy sú v skutočnosti vzájomne prepojené,“hovorí Edward Geist, spoluautor článku a RAND. „Spočiatku sa veľká časť výskumu AI uskutočňovala s podporou armády pri dosahovaní ich cieľov.“

Ako príklad uviedol „adaptačný plánovaný pokus o prežitie“, ktorý sa uskutočnil v osemdesiatych rokoch a ktorého cieľom bolo využiť AI na kombináciu spravodajských informácií s cielením na jadrové zbrane.

V prípade neistoty by AI mohla zvýšiť stabilitu strategickej situácie zlepšením presnosti získaných spravodajských informácií a ich analýz.

Propagačné video:

Vedci sa domnievajú, že v procese vývoja bude AI menej náchylná na chyby v porovnaní s ľuďmi, čo znamená, že z dlhodobého hľadiska bude faktorom stability.

Vadim Tarabarko

Odporúčaná: