Americká Armáda Sformulovala Etické Princípy Používania Umelej Inteligencie - Alternatívny Pohľad

Americká Armáda Sformulovala Etické Princípy Používania Umelej Inteligencie - Alternatívny Pohľad
Americká Armáda Sformulovala Etické Princípy Používania Umelej Inteligencie - Alternatívny Pohľad

Video: Americká Armáda Sformulovala Etické Princípy Používania Umelej Inteligencie - Alternatívny Pohľad

Video: Americká Armáda Sformulovala Etické Princípy Používania Umelej Inteligencie - Alternatívny Pohľad
Video: EU přijímá etické pokyny pro vojenské použití umělé inteligence 2024, Smieť
Anonim

Americké ministerstvo obrany sformulovalo a prijalo etické princípy, podľa ktorých sa budú v krajine vyvíjať a uplatňovať vojenské systémy umelej inteligencie. Podľa Pentagónu sa armáda pri formulovaní princípov riadila ústavou USA, desiatou kapitolou amerického zákonníka (opisuje úlohu ozbrojených síl), zákonmi a zvykmi vojny, ako aj medzinárodnými zmluvami a „zavedenými normami a hodnotami“.

Aktívny vývoj v oblasti vytvárania systémov umelej inteligencie viedol k skutočnosti, že tieto systémy sa postupne začínajú zavádzať do zbraní a vojenského vybavenia. Vyvíjajú sa najmä systémy, ktoré umožňujú robotom automaticky zisťovať a určovať priority cieľov alebo drony pôsobiť ako otroky lietadiel s posádkou. Vyvíjajú sa tiež systémy umelej inteligencie schopné dešifrovať rádiové prenosy. Umelá inteligencia bude v budúcom vojenskom vývoji čoraz dôležitejšia.

Aktívne zavádzanie systémov umelej inteligencie do zbraní a vojenského vybavenia vyvoláva mnoho etických otázok. Najmä zatiaľ nie je jasné, aké legitímne je použitie autonómnych zbraňových systémov vo vojne a aký druh hrozby predstavujú pre civilistov chytených v bojovej zóne.

Celkovo Pentagon sformuloval päť etických princípov používania systémov umelej inteligencie na vojenské účely:

  • Zodpovednosť. Vojenský personál musí vyhodnotiť výkon umelej inteligencie s náležitou starostlivosťou a musí zostať plne zodpovedný za návrh, rozmiestnenie a používanie systémov umelej inteligencie.
  • Nestrannosť. Ministerstvo obrany USA musí podniknúť kroky na minimalizovanie nechcených odchýlok vo schopnostiach systémov umelej inteligencie.
  • Sledovateľnosť. Vojenské systémy umelej inteligencie a ich schopnosti musia byť navrhnuté a nasadené takým spôsobom, aby personál mal primeranú úroveň porozumenia technológie, vývojovým procesom a aplikáciám. Vojenský personál by mal mať k dispozícii metodiky, údaje a dokumentáciu týkajúcu sa používaných systémov umelej inteligencie.
  • Spoľahlivosť. Schopnosti vojenských systémov umelej inteligencie musia byť jednoznačné a jasne formulované. Bezpečnosť a účinnosť týchto spôsobilostí sa musí overovať skúšaním a validovať počas celej ich životnosti.
  • Podriadenosť. Vojenské systémy AI musia v plnej miere vykonávať svoje plánované úlohy, ale armáda musí byť schopná odhaliť a zabrániť nežiadúcim účinkom umelej inteligencie. Armáda by tiež mala byť schopná vypnúť alebo vypnúť systémy umelej inteligencie, ktoré majú abnormality.

Pentagon tiež vymenoval Spoločné centrum pre umelú inteligenciu, ktoré bude zodpovedné za implementáciu princípov používania systémov umelej inteligencie. Ministerstvo obrany USA strávilo spolu 15 mesiacov konzultáciami s vývojármi a vedeckými organizáciami, ako aj s formulovaním zásad používania systémov umelej inteligencie. Niektorí odborníci zároveň poukázali na nejasnosť prijatých formulácií a neexistenciu jasného súboru pravidiel toho, čo by armáda mala a nemala robiť pri vývoji a používaní systémov umelej inteligencie.

Vasily Sychev