Umelá inteligencia v armáde. Prečo zatiaľ NIE a kedy vôbec?

Možno sa vám ako externému divákovi môže zdať, že armády musia mať v použití umelej inteligencie jednoznačne jasno. Veď mať čo najpokrokovejšie technologické vybavenie, bol vždy obraz, ktorý sa nám snažili navodiť veľké mocnosti západu, či východu. Už menej ľudí si však uvedomuje, že systém, ktorý by strieľal „po tých správnych“ na bojisku s pravdepodobnosťou 95% by bol asi pre väčšinu armád nepoužiteľný. Rovnako systém, ktorý navrhuje scenáre útoku, ktoré by si mohol poskladať aj nepriateľ, by asi nedokázal navodiť moment prekvapenia. Preto akékoľvek armádne využitie umelej inteligencie sa musí riadiť inými prioritami ako komerčné nástroje umelej inteligencie. Rád by dom teda priblížil, ako s tou AI v armádach dnes naozaj je:

Spoločný exkurz do bojových oblastí umelej inteligencie by sme mali asi začať predstavením najčastejších AI prvkov, ktoré sa v arzenáli vyspelých armád nachádzajú:

  • simulácie konfliktov a nástroje strategického plánovania
  • bezpilotné lietadlá, drony a iné autonómne zbrane
  • kryptovanie a lámanie cudzích šifier
  • logistika a jej optimalizácia
  • optické rozpoznávanie špionážnych snímkov
  • dezinformácia a manipulácia verejnej mienky súpera
  • penetrácia do informačných systémov nepriateľov
  • text-mining verejne dostupných zdrojov pre účely zberu spravodajských informácií

Napriek tomu, že oblastí na využitie umelej inteligencie je zjavne pomerne dosť, nie je to tak, že by armády razili vlnu inovácií v tejto oblasti. Roboty vznikli dávno pred tým, než bola armáda USA ochotná zaradiť ich do svojej výzbroje. Analýza reči alebo adverzné neurónové siete mali oveľa skôr komerčné a akademické využitie než sa obrana rozhodla skúmať ich použitie aj vo svojich radoch. Väčšina technologických a materiálových vynálezov v minulosti súviselo s armádnym alebo vesmírnym výskumom. Dá sa teda povedať, že nemalú časť 20ho storočia razila vlnu inovácií práve armáda. V dnešnej dobe požiadala US armáda Googke aby manažoval vládny program armádnych dronov. (Čo mimochodom vyvolalo medzi jej zamestnancami ostrú polemiku.) Súkromná spoločnosť je teda v tejto oblasti zjavne vnímaná ako schopnejšia než interné armádne teamy.  Čím to je teda, že v oblasti umelej inteligencie už tomu tak nie je?

Ostražité, miestami až odťažité, postoje vojenských špičiek k použitiu AI alebo ML nemajú nič do činenia s nejakou (sentimentálnou) preferenciou ľudského faktoru. Moderné armády totiž majú už dnes bezpilotné lietadlá, autonómne zbrane, samonavádzacie strely, ktoré fungujú aj bez pričinenia ľudí. Obavy s rozsiahlejšej implementácie zbraní na AI báze spísala armáda do 4 hlavných výhrad k tejto technológií:

1] Nástroje na báze AI sú ľahko manipulovateľné alebo zvrátiteľné. Väčšina komerčných AI predikčných modelov má relatívne krátku životnosť a každá iterácia pretrénovania modelu negarantuje stabilitu jeho výkonu v čase. S tým súvisí aj ďalšia zraniteľnosť samoučiaciach modelov, konkrétne data fooling. Ide o praktiku, kde podstrčíte modelu úmyselne upravené vstupy tak, aby ste uviedli stroj do omylu. Známe sú prípady data foolingu najmä z oblasti analýzy obrázkov a videa, kde úmyselné pozmenenie zopár pixelov robí obrázok nerozoznateľným od pôvodnej predlohy pre ľudské oko, ale v rámci topológie CNN siete, tá vracia úplne mylné výsledky rozpoznania daných obrázkov. V armádnych kruhoch možno data fooling doviesť ešte do vyššieho rozmeru, keď prichádza pomocou úmyselnej deformácie trénovacích vzoriek k tzv. data poisioning-u.

2] V IT systémoch majú útočníci (hackeri) vždy navrch pred obranou. Armáda bola zvyknutá na to, že pozná výzbroj svojich oponentov. Preto, keď prišlo k útoku protivníka, prekvapením mohli byť len to, odkiaľ a kedy prichádza, nie čím to po nás pália. Ak poznáte zbrane súpera, obranná môže byť rovnako účinná ako útok. V kyber priestore však neviete akými zbraňami bude útok vedený, preto útočníci (hackeri) majú navrch pred obranou. Na takto skľučujúcu situáciu nie je armáda zvyknutá a preto sa snaží vyhnúť situácií, aby od týchto systémov bola kriticky závislá.

3] Najvykričanejšie úspechy umelej inteligencie sa dejú za pomoci tzv. Reinforcement learning (RL). Problémom RL však je, že je väčšinou budované v prostredí, kde primárnou snahou je aby RL fungovalo a všetky zúčastnené strany výskumu sa snažia, aby RL optimalizovalo svoj pozitívny výsledok. V armádnom prostredí sa však nemožno spoliehať, že protistrana tiež úprimne túži dosiahnuť rovnaký optimálny výsledok. Preto RL algoritmy majú v armádnom prostredí veľmi rozkolísanú kvalitu predikcie a často aj upadajúcu spoľahlivosť v čase (pre zmenu podkladov a nesúrodé pretrénovanie vstupov)

4] Komplikáciou pre zdarné nasadenie AI do bojových situácií je aj fakt, že jednotlivé autonómne zbrane a algoritmické nástroje musia byť schopné medzi sebou komunikovať, aby rozoznali „svojich“ a nepriateľa. Pri obrovskom množstve nasadenia jednotiek a v situácií, keď sa nad bojiskom premávajú nielen naše drony, ale aj drony súpera (ktoré úmyselne môžu byť zostrojené tak, aby imitovali „vlastných“), vzájomná koordinácia naberá na komplexite. Možno si z histórie pamätáte, ako zničujúci efekt malo, keď niekto vypálil skôr ako dostal povel.

Pozorný divák si možno už položil nasledovnú otázku: „Ok, aj keď armádne prostredie zvyšuje dôraz na niektoré slabé miesta AI, ako to že v civilnom svete sa nám tieto problémy darí vyriešiť, ale vo vojenskom prostredí zostávajú neprekonanou prekážkou?“ Odpoveď na túto veľmi dobre cielenú otázku tkvie v tom, ako progres na poli AI v civilnom svete nastáva. Drvivá väčšina AI know-how a nástrojov je Open Source. Intenzívne tempo napredovanie vývoja AI v bežných aplikáciách sa viaže na fakt, že každý kto chce môže rozvíjať AI nástroje alebo dobrovoľne riešiť niektorý z AI problémov. Práve sila masy je to, čo vojenské teamy využiť nemôžu. Zbrane sú, zo svojej podstaty, vyvíjané ako nástroje konkurenčnej výhody. Preto postup, kde ľubovoľný človek z akejkoľvek krajiny vo svete má prístup k aktuálnemu kódu aplikácie a môže ho nezáväzne (a kľudne aj zištne) ďalej vyvíjať, je v rozpore s práve spomínanou konkurenčnou výhodou.

Armáda teda stojí pred ťažkou dilemou. Buď bude prijímať technológie vyvinuté komerčným prostredím (ale v tom prípade ťažko môže počítať s výraznou konkurenčnou výhodou v algoritmoch a ich implementácií) ALEBO utvorí konzorcium viacerých štátov, čím sa pokúsi napodobiť  open source hnutie. Proti tejto možnosti však stojí pomerne rozkolísaná dôvera medzi štátmi NATO (príchodom D. Trumpa) ako aj vzájomná podozrieravosť štátov BRIC skupiny. Je preto možné, že štáty ako USA sa uchýlia k tretej, aj keď menej optimálnej možnosti. Po vzore minulosti sa pokúsia vytvoriť dostatočne robustné interné teamy (čo vývoj výrazne predraží) a chýbajúce diery zaplátať zákazkami pre komerčný sektor (ako tomu bolo v prípade dronov). Tento spôsob im síce nezaručí líderstvo v danej oblasti, ale ponechá im rúško tajomna o tom, čo už bolo vyvinutí a nasadené. A tento moment prekvapenia si stále armády cenia viac ako priamu technologickú presilu. Tak uvidíme, či sa im stávka na tento model do budúcna oplatí. Alebo súkromné korporácie získajú (AI) útočnú silu porovnateľnú s tými armádnymi zdrojmi.