Necháte si poradiť od mobilu v sexe? A v obliekaní?

Môže vám mobil radiť, čo si ráno obliecť? A chceli by ste, aby posudzoval Váš zdravotný stav? Prijali by ste radu na „one-stand“ sexuálneho partnera z baru, v ktorom sa práve bavíte? To všetko totiž mobily dokážu. Pýtate sa, kto im to dovolil? Nuž presne o tom je tento blog.

Vývoj umelej inteligencie napreduje míľovými krokmi, a to hlavne v oblastiach, kde sa umelá inteligencia používa na konkrétny, úzko vymedzený cieľ. (Naučiť umelú inteligenciu kombinovať viac vecí sa javí o veľa ťažšie.) Dôvodom je, že nutným predpokladom na spoľahlivé odporúčanie sú dáta o danom jave. Masívne rozšírenie smartfónov v populácii, spolu s faktom, že je len málo činností, pri ktorých by neboli prítomné, robí z mobilných zariadení skvelých „zberačov“ (trénovacích) dát.

Navyše aplikácie v mobilných telefónoch už dávno nie sú vyvíjané samotnými výrobcami telefónov. Zástup súkromných tvorcov aplikácií, ktorí zavesia svoju appku do App-store (odkiaľ si ju ktokoľvek môže stiahnuť), je základným princípom ekosystémov Apple, Androidu či Windows.

A odtiaľ už je len drobný krôčik k tomu, že váš telefón môže predikovať, čokoľvek, čo si niekto zmyslí. Stačí mať vývojárske konto (a vedieť programovať patričný programovací jazyk) a vypýtať si súhlas na zbieranie konkrétnych dát od vás používateľov. Ideálne niekde uprostred malých písmeniek Podmienok používania aplikácie.

Takto jednoducho?

Ale je to naozaj takto jednoduché? Nuž naozaj môže. S jedným „ak“. Ak sa nikto do toho nebude starať. V panike zalovíte v pamäti, kto by vás mohol v tomto ohľade chrániť? Napísať Úradu na ochranu osobných údajov? Alebo Európskej komisii? Počkajte, odkiaľ vlastne pochádza výrobca tej aplikácie? Pod koho jurisdikciu vlastne spadá? kto mu môže klepnúť po prstoch?

Problémom súčasnej situácie je, že „lampárni“, kde sa sťažovať je pomerne dosť. Ale ak vám naozaj ide o to, aby sa prestalo páchať zlo/škoda na ďalších používateľoch tejto aplikácie, asi si nebudete platiť právnikov v cudzej krajine, aby požiadali o predbežné opatrenia. Hneď ako rozdýchate úvodné rozhorčenie a vec si  trochu premyslíte, napadne vám možnosť odstrihnúť kábel priamo u zdroja: požiadať o stiahnutie aplikácie priamo u prevádzkovateľa app-storu.

A tu práve začína druhá kapitola nášho problému. V prípade Apple (a do istej miery aj Android ekosystému), aplikácie prechádzajú prvotným hodnotením ešte pred tým, než sa vôbec stanú dostupné v app-store. Teda, ak ste si mohli aplikáciu vôbec stiahnuť, už prešla kontrolou od prevádzkovateľa obchodu s aplikáciami. Pozícia Applu (a jemu podobných) je v tomto ohľade skľučujúca: Buď musí priznať, že primárne preverenie nebolo dôsledné alebo obviniť tvorcov appky, že im nedali plné informácie. O tom, ako komplikované to druhé je, a to aj v prípade, keď porušenie pravidiel pre vývojárov je pomerne zjavné, dokumentuje (nie s AI súvisiaci) aktuálny prípad herného štúdia Epic (podrobne to rozobrali Ondro s Davidom v tomto KLIKu). Ako sa z tohto problému vymotať už o chvíľu. Ešte pred tým, však krátky odskok k tomu, prečo by sa v tejto oblasti mali udiať zásadne zmeny.

Prečo je to dôležité?

Okrem toho, že by mohli mobily zasahovať do vášho súkromia pokútnymi predpoveďami (prípadne skrytými motívmi, ktoré ste zo širokého popisu účelu ani nevybadali), je tu ešte jeden dôležitejší faktor. Kto ponesie zodpovednosť za mylné predpovede a odporúčania. Tým sa dostávame na klzkú plochu Etiky v umelej inteligencii, ktorú sme nedávno detailnejšie rozoberali tu (alebo TU). Možno vám totiž prípade banálne sa sťažovať na ten nevhodný sveter, čo vám mobil odporučil minulý týždeň do práce, ale zbytočné nerieknutie z rakoviny (ktoré máte podľa telefónu na 80%), už asi nenecháte „len tak plávať“. Tým skôr po sérií vyšetrení a týždňoch strachu, ktoré ste si museli preskákať.

Situácia je o to komplikovanejšia, že v prostredí desktop počítačov, ktoré sú predchodcami mobilných aplikácií, si užívateľ niesol (takmer) plnú zodpovednosť za to, čo si stiahol do svojho počítača. Navyše AI riešenia začali húfne vznikať až v dobe, keď už mobily preberali žezlo od desktopov. A tak nevznikli žiadne regulačné úrady, na kontrolu AI software mimo mobilov, o ktoré by sme sa mohli pri regulácií tých mobilných AI riešení oprieť. Jedno vetou: na tento druh regulácie sú verejné inštitúcie bezzubé (ešte viac ako prevádzkovatelia App-storov.)

Ako z toho teda vyviaznuť

Všetko doposiaľ povedané smeruje k tomu, že k regulácii toho, čo (a ako dobre) umelá inteligencia predikuje na mobiloch, budú musieť pristúpiť primárne prevádzkovatelia ekosystémov smartfónov. To sa však omnoho ľahšie povie ako zrealizuje. Skúsme sa preto pozrieť na to, aké reálne možnosti títo prevádzkovatelia majú.

AI riešenia, primárne ako partnerstvá. Neviem, či ste si všimli, ale pre niektoré typy aplikácií si Apple, Google (aj Microsoft) vyhradili vo svojich ekosystémoch výhradné postavenie. Tento druh služieb je buď priamo poskytovaný len vlastnými funkciami prevádzkovateľa (napr. Apple/Google Pay) alebo aspoň výrazne vymedzený tým, že výrobca telefónu predinštaluje vlastnú aplikáciu pre daný druh činnosti (web browser, úložisko fotiek, …). Teoreticky by tak mohli vznikať ako riešenia umelej inteligencia iba ako takéto dôležité aplikácie. Ak si ťukáte do čela, že by to bolo nereálne, tak len pripomeniem, že keď Apple uvádzalo nové funkcie (ako čítačka otlačkov prsta, či akcelerometer), takmer vždy bol prístup na tieto funkcie zamknutý len pomocou vývojárskych SDK knižníc. Inými slovami, nemohli ste si čítať otlačky prstov mirdix-firdix ako chcete (napríklad na vytvorenie vlastnej databázy odtlačkov prstov z celého sveta). Podobný postup sa predpokladal aj pri uvedení bionic chipov v Iphone 9. Takýto prístup by však určite priniesol spomalenia vo vývoji AI, keďže Apple (či Google) dokážu reálne participovať len na určitom počte projektov súčasne. (Či by spomalenie AI nebolo vlastne benefitom, je zaujímavá téma z iného súdka)

Rozšíriť vetting team o AI sekciu. Časť firmy, ktorá sa zaoberá (prvotným) schvaľovaním aplikácií v ekosystéme sa volá Vetting Team. Ak si to predstavujete ako pár ľudí, ktorí sa kde tu pozrú na nejakú App-ku, rád by som vás vyviedol z omylu. V Apple Store sa aktuálne nachádza 1.8 milióna aplikácii, v Google Play Store je to dokonca až 2.6 milióna. A to sa bavíme iba o tých schválených. Podľa údajov Apple cez výberovo sito neprejde 40% percent, bavíme sa o miliónoch aplikácii ročne, ktoré treba posúdiť, čiže niekoľko tisíc nových každý deň. To všetko v 81 jazykoch, lebo appky sa tvoria všade po svete. K tomu pridám, že Apple si stanovilo pravidlo, že chce schvaľovať 50% aplikácií do 48 hodín. Takže len pre aktuálny set-up bez preverovania AI už sa musí tomuto procesu venovať viac ako 300 hodnotiteľov pre každý z app-storov, z ktorých každý musí overiť cca 50 aplikácií (a ich aktualizácií) za deň! Pritom posudzovania AI podstaty je o mnoho zložitejšie a vyžadovalo by si celé teamy na posúdenie jednotlivých riešení. S vidinou toho, že AI sa postupne stane súčasťou väčšiny aplikácií, natíska sa otázka, či je takéto navýšenie počtu AI hodnotiteľov udržateľné.

Starí dobrí kontraktori. Základnou poučkou procesného riadenia je: „Ak je proces pre Teba ťažko riaditeľný interne, nájdi externého dodávateľa, na ktorého môžeš bremeno prehodiť.“ V zmysle tejto mantry, by mohli prevádzkovatelia ekosystémov najať na kontrolovanie AI časti aplikácií externé teamy. Toto Pilátske riešenie však tiež nie je jednoducho realizovateľné. Od faktu, že Apple (a jemu podobný), nechcú aby niekto iní rozhodoval, ktoré aplikácie bude ponúkať, cez fakt, že držať armádu kvalitných hodnotiteľov bude vždy pre externú firmu ťažšie ako pre Apple (predsa je omnoho viac ľudí, ktorí chcú pracovať pre Apple ako no-name firmu na hodnotenie AI aplikácií). Výhodou tohto prístupu je, že takéto centrum by mohlo ponúkať služby viacerým app-storom, teda lepšie vyťažiť kolísanie potrebných kapacít. Na druhej strane toto je presne aspekt, ktorý by sa nepáčil samotným App-storom (ich dodávateľ by videl, aké aplikácie sa pripravujú u nich a u konkurencie). Aj keď to je presne to, čo by mohlo celý proces urýchliť, lebo výrobcovia často predkladajú tú istú aplikáciu do viacerých app-storov súčasne. Istý potenciál by tu teda bol, ale … Súdiac z toho, že výrobcovia nepreniesli ani hodnotenie bežných aplikácií na externé firmy, necháva šípiť, že to nebude asi plán A ani pre AI hodnotenia.

Vyprosiť si vládne riešenie. Ak je to také komplikované pre samotných prevádzkovateľov, nebolo by lepšie, aby sa tejto povinnosti proste zbavili? Na koho plecia? Nuž čo tak nejaký štátny certifikačný úrad (ako je tomu pre medicínske Appky)? To, čo príde nám Európanom ako dobrý nápad, by asi hľadalo ťažko podporu v Amerických centrálach týchto gigantov.  Tie sa totiž vždy snažia samoregulovať. Vznik takého úrodu si viem živo predstaviť v Rusku, Číne a do istej miery v Nemecku, či Francúzsku. Ale Americké korporácie určite nepôjdu s prosíkom za vládnym regulátorom. Aj keď nápad, že my zodpovedáme za softwarovú časť, na správnosť AI časti aplikácie si zožeňte certifikát of AI autority, znie ľúbivo. Tak kto vie, možno predsa.

Ak ste si po prečítaní vyššie uvedených možností nevedeli vybrať favorita, asi ma to prekvapí. Aktuálny diskurz v tejto téme hovorí, že vybrať si ho nevedia ako prevádzkovatelia ekosystémov. A to značí len jedno. V dohľadnej dobe nebude to, čo mobil dokáže (a smie) predikovať vo vašom živote regulovať nikto. Teda úplne presne, nikto okrem vás. Takže nám nezostáva iné, len si vytvoriť určitú prirodzenú skepsu voči všetkým aplikáciám, ktoré sľubujú „odporúčania, predikcie alebo rozpoznávanie vecí“, čítať si v malých písmenkách, aké údaje si od nás zoberú (čo aspoň bude čiastočne Apple regulovať v novom iOS), alebo … proste neočakávať, že by mobil mohol predikovať váš sexuálny mobil, či to, akou chorobou trpíte. Aspoň na teraz nie, kým to nie je dostatočne bezpečné.


Publikované dňa 14. 9. 2020.