Srovnání tabu proto dovoluje ukázat některé detaily ze života společnosti v minulosti. Marvin Harris, hlavní představitel kulturního materialismu se pokoušel vysvětlit tabu jako důsledek ekologických a ekonomických podmínek společnosti. Sigmund Freud analyzoval tabu v chování člověka. Zdůrazňoval nevědomé motivace vedoucí k zákazům. Ve své práci Totem a tabu a dalších Freud tvrdí, že existují jen dvě univerzální tabu: Incest a otcovražda. Poslední tvoří základ moderní společnosti. V dnešním příspěvku se zmíním o novodobém a rodícím se tabu: Umělá inteligence a hackeři.
52letý Eugene Kaspersky a jeho společnost Kaspersky Lab jsou dnes americkými orgány označováni jako hackeři, vědomě či nevědomě spolupracující s ruskými tajnými službami. Jedním z mnoha důvodů je veřejnosti známé odhalení státních hackerů. Kaspersky odhalil tajné britské, americké, izraelské akce, včetně útoku obávaným stuxnetem v roce 2010 a činnosti elitního hackerského týmu americké NSA. Co to znamená pro tajné služby, nebudu popisovat. Kaspersky nešetřil ani Rusko. Provedl úspěšnou analýzu stopy hackerů APT29. Mnozí na Západě spojují APT29 s bezpečnostními složkami Ruska.
Na včerejší, SZ-Wirtschaftsgipfel, konferenci v Berlínském luxusním hotelu Adlon, se Kaspersky na pódiu díval ke stropu a ukazoval prstem na místa, kde všude je cyber. Jinými slovy, Kaspersky ukázal na místa, která podléhají napadení viry a podobnými digitálními vymoženostmi. Současně vtipně reklamoval sebe a webovou stránku slovy very funny travel pictures. Ironickým sdělením, Já jsem třikrát podal ruku Putinovi, Angela Merkel jenom jednou indikoval publiku, že není veden tajnou službou.
Zmiňuji se o Kaspersky Lab, protože je to přesvědčující příklad o tom, jak se v politickém a hospodářském transformačním procesu privátní společnost může dostat na bojovou geopolitickou frontu, na které šance na vítězství jsou nehledě na intelekt, zkušenosti a profesionalitu minimální. To se nezmiňuji o prázdnotě tzv. svobodného podnikání a tzv. neviditelné ruce trhu. Příklad Kaspersky Lab nabízí důležitou otázku: Kdo kontroluje hackery? Závěr příspěvku nabídne jednu z mála realistických odpovědí, která nepotěší. Mezitím je dobré si uvědomit, že německý Spolkový úřad pro bezpečnost v informační technice (Bundesamt für Sicherheit in der Informationstechnik hin) si dovoluje chválit kvalitu produktů Kaspersky Lab, zatím co britská GCHQ, má podle nedělních Financial Times velké výhrady. Je dobré si také uvědomit, že téma, které si Kaspersky vybral – Ochrana kritické infrastruktury, tj. elektráren a sítí, je jenom jedním z několika důležitých. K těm důležitým, o kterých se píše, ale málo patří bankovní infrastruktura a skutečnost, že v současném kybernetickém prostoru platí binární fakta: Pravda nebo lež, čili 0 a 1.
Na téma umělé inteligence (UI)se nedávno vyjádřil varovně také Prezident bezpečnosti BT, Mark Hughes. Uvedl příklad z roku 2016. Google’s DeepMind použil UI zvanou AlphaGo. Dnes ale máme již mnoho dalších typů UI, o kterých jsem nedávno psal, proto se o nich zmiňuji ve zkratkách: Siri, Alexa, Cortana, Google Assistant. Tyto a další UI již dnes organizují mailové účty, rozdělují v poště žádané od nežádaného, napovídají obchodním řetězcům o prioritách kupujících, apod. Obchodní svět se raduje z učení stroje (machine learning), jednoho z prvků UI, který se koncentruje na algoritmy, ze kterých je možné se učit. Hranice možností komputerů jsou viditelné, hranice možností UI jsou v nedohlednu. Radost z RPA (Robotic Process Automation), zvýšení efektivity a zisků působí na mnohé jako drogy vedoucí k euforii, aniž by si radující uvědomovali, že UI, neregulovaná a nekontrolovaná, nedovoluje jasně myslet, a že zatemňuje výhled do již tak nejasné a nepředvídatelné budoucnosti. Uvedu příklad: Odporující si efekt UI (adversarial effect) v regulování dopravy.
UI rozpozná červenou a hodnotí ji jako zelenou. Takovýto efekt patří do tzv. kategorie korupce (corrupt means). Do ní patří i hackerský útok na UI. Co se stane, až sama UI se ujme hackerství, nechť si každý čtenář představí sám. UI hacker je pravděpodobnost hraničící s jistotou. Že by OpenAI a Onyx zůstaly bez povšimnutí kriminálních skupin, nevěřím. Boj mezi býlími a černými UI totiž již dávno začal. Zatímco tzv. bílé klobouky (white hats)vyvíjejí UI systémy schopné chránit své, tzv. černé klobouky (black hats) vyvíjejí nezávisle od státu, firem a regulace své útočné UI systémy. Ty jsou schopné zasáhnout cizí systémy a způsobit spoušť (cause havoc). Nezmiňuji se o mnohem horších realistických scénářích, protože nechci strašit čtenáře a dávat zastáncům UI další důvod k napadání. Z uvedeného však vyplývá jedna důležitá otázka: Jak zajistit bezpečnost systémů UI používaných v kritických infrastrukturách a bankovnictví před útokem UI hackerů?
Chceme, nechceme, technologický vývoj nás dohnal ke stěně a do rohu, ve kterém budeme velice brzo muset přiznat náš postoj k morálce a etice. UI se nás nebude ptát o povolení, zda se může vyvíjet dále, než jsme my. Bohužel nemám důvod věřit Google, Microsoft, Musk a podobným, že vědí o možnostech vyvažujících uvedená rizika. Nikdo mi nemůže garantovat, že bílé klobouky budou vždy jeden krok před černými. Že jednou započatý boj může trvat věčně. Nic takového nezná příroda, lidská historie, námi aplikované zákony fyziky, chemie, matematika, ani moje osobní zkušenost s pilotováním. Ze zkušenosti a matematické rozvahy proto vyplívá odpověď na otázku v úvodu: Kdo kontroluje hackery?
Dnešní let civilního a vojenského letadla se uskutečňuje na principu kontroly autopilota pilotem. Rozdíl mezi systémem autopilota a systémem UI je v tom, že autopilot je výkonným prostředkem k plnění úkolů a zadání formulovaných člověkem. Ty jsou, nebo by měly být vždy známy. Autopilot sám od sebe nezmění například trasu letu. Tato malá připomínka je důležitá pro porozumění dalšího argumentu, stojícího ve spojení s předem uvedeným učením stroje (machine learning). Učení stroje se uskutečňuje s pomocí neuronových sítí, představujících spojení ohromného množství jednoduchých prvků různého druhu a kvality. Každý prvek je sám o sobě umělý neuron. V závislosti od síly vstupního signálu působícího na prvek, je vysílací signál působící na druhé prvky, neurony, které jsou s nimi spojené.
Je tomu podobně jako v informačním prostředí: signál, data, informace, znalost, dej Bůh, moudrost. Když nejsem schopen zachytit správně plný signál, následující data, informace a znalosti jsou chybné. I proto jsou mnozí a společnost tam, kde jsme se: Moudrosti je málo, jako šafránu. Proto nabízím otázku: Proč nemůžeme s jistotou předpovědět chování námi spoluvytvořeného systému UI v každé (představitelné, těžko představitelné a nepředstavitelné) situaci, když rozumíme podstatě a principům systému? A hned se nabízí druhá otázka: Co nás motivuje a vede k tomu, abychom ignorovali následky vyplývající z nemožnosti předpovědi chování systému UI v každé situaci?
Ve hledání odpovědi na první a druhou otázku mi napomáhá matematika, výsledky práce matematiků Židovské univerzity v Jeruzalémě a Muskův projekt automobilu bez řidiče. Vstupní informace do neuronové řídící sítě se skládá z černo – bílého obrazu, řekněme z velmi malým rozlišením, 16 x 16 bodů. Jenom samovrah by vstoupil do auta a důvěřoval takovému systému. Proč? Matematika jasně dokazuje počet variant různého zobrazení pro tak nízké rozlišení: 2 ^ (16 * 16) = 115 792 089 237 316 195 423 570 985 008 687 907 853 269 984 665 640 564 039 457 584 007 913 129 639 936. V tomto čísle je 79 číslic!
Ve skutečnosti musí mít Muskovo auto bez řidiče mnohem více informací. K tomu všemu musíme zohlednit faktor času, který je potřebný na prověrku správnosti práce neuronové sítě. Čas nikdo neumí vyrábět. A nikdy nebude schopen vyrábět. Za předpokladu, že programátor napíše kontrolní program, který se spustí s rychlostí 100 miliard testů za vteřinu, tak v uvedeném příkladu bude potřeba 2 ^ (16 * 16) / (100 * 10 ^ 9) / 3600 / 24 / 365 = 36 717 430 630 808 027 468 154 168 254 911 183 362 909 051 454 097 083 980 041,09 roků.
Pro představu uvádím s rovnání: Jestliže je Vesmír starý 13,075 miliard let, to je jeho stáří cca 48 krát menší, než to, co jsem napsal v případě výpočtu nutného času pro kontrolu správnosti práce neuronové sítě s malým rozlišením. Kdyby bylo rozlišení vstupního obrazu ještě menší, na příklad 8 x 8, bylo by potřeba 5 let na prověrku. Z uvedeného vyplývá, že schopnost spolutvoření systému UI a schopnost rozpoznat pole aplikace neznamenají, že jsme plně pochopili a plně si uvědomili, jak vůbec UI pracuje. Ignorovat faktor času a neschopnost rozpoznat a přijmout plně signál vede k fatálnímu výsledku. Z toho vyplývá pro Muskovo auto bez řidiče, že žádný systém UI nemůže garantovat na příklad zrychlení auta při zjištění neočekávaného jevu na cestě. Například divoké prase, nebo nějaký druh jelena, či barevné krávy způsobí zcela jistě nehodu, již kvůli času na rozhodnutí.
Proto jsou řešení neuronových sítí prověřovány analytickými metodami. Havárii způsobenou zjištěním neočekávaného jevu může vyloučit pouze mechanický automat a bdělý člověk. Fučíkovo, Lidé bděte!, platí i dnes. Politici a finanční guru by se proto měli rychle učit klást správné otázky spojené s výzkumem a technologiemi budoucnosti. Neznám takovou instituci, kterou by navštěvovali zmíněné osobnosti se snahou se učit. Proto, a protože každý člověk je příčinou své nemoci, UI a hackeři nesmí být pro veřejnost tabu.