3 spôsoby ako naučiť robotov správať sa medzi ľuďmi

Prekvapivo môže znieť, že otázka morálnosti robotov je tu s nami už niekoľko storočí a ľudstvo sa ňou zaoberalo oveľa skôr, než bolo schopné vôbec nejaké roboty skonštruovať. Predpokladám, že ste videli film Cisárov pekár a pekárov cisár, prípadne aspoň poznáte historku o Golemovi. Robot z hliny, ktorý sa uvádzal do chodu vložením magického drahokamu do čela, bol jedným z prvých popísaných robotov. Z pohľadu dnešnej doby je však oveľa zaujímavejšie než Golemova hlina to, že roboti boli v tej dobe proste dobrí alebo zlí. Nikdy sa nespomínalo, čo im umožňuje takými byť a podľa čoho sa v jednotlivých situáciach rozhodujú. Dilema je to o to zaujímavejšia, že Golem a iné „prvé modely robotov“ vlastne nemali ani zmysly, ktorými by okolie vnímali.

Golem

Od príbehov sme však pokročili do reality. Roboty už dokážeme stavať vo veľkom, dokonca ich dokážeme vybaviť aj všetkými zmyslami, ktorými disponuje bežný človek. (zrak, sluch, hmat, čuch či chuť). V otázke, ako urobiť robota dobrého, sme však oproti pôvodnému golemovi pokročili citelne menej. Aké metódy teda ľudstvo doposiaľ vyvinulo, aby naučilo robotov správať sa nielen efektívne ale aj morálne?

Pre niektorých čitateľov bude možno sklamaním, že sa utiekame pri trénovaní robotov k rovnakým učiacim metódam ako pri vzdelávaní ľudí. Zástanci týchto prístupov argumentujú, že keď chceme vytvoriť robotov, ktorí budú kompatibilní s ľuďmi, mali by mať podobné vzdelanie ako ľudia. Isté rozčarovanie však v tomto fakte vidia tí, čo dúfali, že roboti budú morálnejší/lepší ako ľudia. Totiž, ruku na srdce, ľudský vzdelávací program stále “produkuje “ nemalý počet podovodov, násilia, či nedorozumení medzi ľuďmi. Túžba, aby roboti boli morálnejší ako my, preto vo svetlte týchto skutočností nevyzerá až tak nepatrične. Tak či onak, robotov dnes vychovávame jedným z troch spôsobov:

I. Chyby ako cesta k úspechu

Mali by sme byť hrdí, že jedna z ciest, ktoré sa ľudstvo rozhodlo vybrať pri vychovávaní robotov, vzniká aj u nás na Slovensku. Marek Rosa (Slovák, zakladateľ gaming start-upu KeenSofwareHouse, ktorý sa rozhodol venovať umelej inteligencii prostredníctvom svojej ďalšej firmy GoodAI). Marekov prístup (ktorý predstavil aj na Banalytics stretnutí v Bratislave) spočíva v postupnom budovaní úsudku a vedomia robota. Pomocou mentora, ktorý predkladá robotovi stale ťažšie a ťažšie úlohy, robot sa doslova učí na svojich chybách. Skúša všetky možnosti a tie, ktoré vedú k splneniu úlohy najčastejšie, sa mu do “pamäte” uložia ako “vhodné vzorce správania”. Ak stojí pred rovnakými podmienkami, ako má už v minulosti zvládnutá situácia, robot sa zachová podľa postupu, ktorý maximalizuje dosiahnutie želaného cieľa.

Marek Rosa foto

Tento postup asi najpresnejšie kopíruje ľudský spôsob učenia: Najprv sa naučíme rozoznávať čísla, potom počítať a malú násobilku, až nakoniec dokážeme riešiť sústavy rovníc, derivovať, či popísať zakrivenie časopriestoru. Prívlastok Good AI si tento prístup zaslúži aj preto, že ho nezaskočia ani nové situácie, ktoré sa doposiaľ nestali. Robot proste vyberie možnosť, ktorá minimalizuje škodu a čím častejšie sa s daným javom stretne, tým lepšiu metódu riešenia sa naučí používať.

II. Keď cukor prehráva s bičom

Ron Arkin fotoÚplny iný prístup zvolil Ron Arkin, americký professor robo-etiky na Unverzite Georgia Tech v USA, ktorý programoval roboty aj pre americkú armádu. V legendárnej dvojici cukor-bič si Ron vyberá tú menej kalorickú možnosť. Jeho prístup sa totiž zakladá na simulovaní emócii u robotov. A to emócii nie hocijakých. Arkin nechá robota vyhodnotiť situáciu pred svojim rozhodnutím a po ňom. V robotovi následne zosimuluje pocit radosti alebo pocit viny za dané rozhodnutie (pomocou čiernych a červených  bodíkov, podobne ako to robíme my, ľudia). Napríklad, keď robot narazí na prekážku, pokúsi sa ju možno najprv preraziť silou. Keď však v ňom učiteľ navodí pocit viny za poškodenú stenu, ak je najbližšie robot postavený pred rovnakú úlohu, stráni sa riešení, za ktoré sa cítil previnilo. Naopak preferuje riešenia, za ktoré bol “pochválený”. Tento prístup je dôležitý najmä preto, že sa roboti rýchlo naučia nerobiť neakceptovateľne hrubé prehrešky voči našim pravidlám. V praxi teda títo roboti budú menej „neokrôchaní“ v prekvapivej situácii, ako ich proťajšky, trénované prvou metódou.

III. Prečítaj svojmu robotovi rozprávku na dobrú noc

Mark Riedl fotoTretí prístup sa spolieha na morálny rozvoj, ktorý zažívame v tom namenšom veku: Rozprávky. Mark Riedl, tiež z Georgia Techu súhlasí s Good AI prístupom. Avšak podotýka, že pre väčšinu úloh, nemáme toľko času, aby sme pre každú drobnú súčasť inteligencie robota simulovali postup učenia cez pokusy a omyly.

Riedl sa preto spolieha na prístup, kde robot „číta“ veľké množstvo príbehov a rozkladá ľudské konanie v daných príbehoch na sled príčin a dôsledkov. Ak pri čítaní narazí na vzorec správania ľudí, ktorý sa opakuje, zapamätá si ho a snaží sa ďalej v príbehoch si ho buď potvrdiť alebo vyvrátiť. Keďže už od čias „Číslo päť žije“ (viď video) vieme, že čítať dokážu roboty enormne rýchlo, tento druh učenia umožňuje napredovať v učení robota omnoho rýchlejšie. Robot tak z „nevinných príbehov“ pochopí, že keď vojdete do reštaurácie, máte si najprv objednať nápoje a potom jedlo. Príde vám to triviálne? Nuž vedzte, že robotom je zas divné, prečo to robíme takto komplikovane, lebo keď má človek hlad, najpriamočiarejšie riešenie je vtrhnúť do kuchyne a jedlo si proste priamo zobrať (prípadne si ho sám uvariť, keďže vaše kuchárske zručnosti môžu byť neraz porovnateľné s niektorými kuchármi). Výhodou “rozprávkového“ prístupu je, že dokáže natrénovať aj situácie, ktoré je komplikované nevodiť pre učenie metódou, ktorú používa Marek Rosa.

Spolu alebo rozdielne?

V čom sa všetky uvedené princípy zhodujú? Morálne konanie robotov sa nesmie spoliehať na vopred naprogramované rutiny. Aj keby sme si dali tú námahu a popísali všetky dnes známe situácie do detailného zoznamu “AK-x-TAK-UROB-y” pravidiel, takto “vzdelaný” robot by zostal paralyzovane stáť, keď sa objaví nová situácia, ktorú nemá v zozname. Fixné programovanie by rovnako spôsobilo rigidnosť robotov voči spoločenským zmenám. Netreba zabúdať, že to nie je tak dávno, čo ženy nemali právo voliť a udrieť otroka na ulici bolo opodstatnené právo jeho majiteľa. Roboti teda musia byť schopní “odkukať” novú spoločenskú normu rovnako ako keď sa my, ľudia, vyberieme do inej kultúry. Spočiatku sme opatrní, ale za pár dní dokážeme nebyť “slon v porceláne”, hoci nás nikto neškolil na život v danej kultúre. V každom prípade výchova robotov má oproti tej ľudskej dve podstatné výhody. Akonáhle sa jeden robot naučí potrebné pravidlá, všetky následne vyrobené kópie už môžu dostať výchovu nahratú priamo do základnej pamäte od výroby. Navyše, štáty budú môcť požadovať, aby všetky s ľuďmi komunikujúce roboty mali spoločné a záväzné „móresy“. Vec, ktorá by sa nám ako soľ zišla aj v ľudskom svete. Ale to už je iná česká rozprávka …