TÉMA ČÍSLA
Zajistí nám umělá inteligence bezpečnou budoucnost? Jan Hanáček
Otázka bezpečnosti je v naší dynamické době jedním z nejdiskutovanějších témat. Ke všem různým druhům nebezpečí, která nás ohrožují a vždy ohrožovala, se za posední desítky let přidalo i to kybernetické. Dnes nemusíme opatrně tvrdit, že digitální bezpečnost je jedna z těch naprosto nejdůležitějších. Podle studie IBM z roku 2018 projde automatizací a digitalizací jen v USA do deseti let asi 73 milionů pracovních pozic. U některých pozic tento nevyhnutelný trend změní jen zanedbatelnou část pracovní náplně, u jiných přes celých 60 % charakter práce. V případě kybernetické bezpečnosti se očekává podíl ještě vyšší. Za velkou míru našeho bezpečí brzy nebude zodpovědný jiný člověk. Pro více než 25 % z asi deseti tisíců respondentů průzkumu skupiny Palo Alto je to ale nesporná výhoda. Čtvrtina lidí důvěřuje více strojům než lidským bytostem. Hackeři již běžně využívají automatizované procesy pro distribuci nežádoucího softwaru, takzvaného malwaru. Tempo celosvětové rozesílky malwaru se podle odhadů pohybuje kolem jednoho milionu škodlivých souborů denně. Některé nástroje útočníků jsou autonomní, tradiční nástroje obrany proti nim většinou prozatím manuální. Důvěra v učící se bezpečnostní sítě je tedy ze strany uživatelů pochopitelná. Stejně jako jejich naděje v bezpečnější digitální svět zítřka.
Umělá inteligence a detekce hrozeb
Mnohá současná a tradiční řešení kyberobrany fungují na bázi detekce nebezpečí tím způsobem, že při kontrole dat najdou řetězce a algoritmy v nějakém smyslu odpovídající těm, které mají uloženy ve své (většinou vzdálené) databázi hrozeb. Tyto metody jsou občas až překvapivě účinné při odhalování známých škodlivých programů, jejichž podpisy se už
20
Reseller Magazine
v databázi vyskytují. Zcela však selhávají v případech, kdy se ochrana setká s hrozbou, se kterou se ještě nepotkala. Tvrdí se, že jednou z důležitých schopností chytrých bezpečnostních sítí je na hrozby reagovat v téměř reálném čase. To ale už dnes zvládne i onen tradiční antivirový program. Nejmocnější výhoda umělé inteligence v boji proti kybernetickému zločinu tak leží jinde. Autonomní a inteligentní síť se může naučit, jak předvídat, vyhodnotit a zabránit útokům ještě před tím, než se reálně stanou. Nebo alespoň najde a zacelí „díry“ ve struktuře obrany ještě před tím, než od malých průniků dojde ke katastrofě. Současné testy společnosti McAfee nicméně ukazují, že v tomto odvětví ještě nejsme na úrovni, kdy bychom mohli nechat veškerou bezpečnost ležet na bedrech učících se neuronových sítí. V dnešním stavu vývoje má autonomní AI tendence nadhodnocovat hrozby, a ačkoliv se detekce podezřelých souborů po jejím zavedení navýší až o neuvěřitelných 95 %, příliš mnoho z nich se později ukáže být jen falešnými poplachy. Jinak řečeno, v nedokonalém systému AI najde oněch nezacelených děr příliš mnoho a v takovém prostředí není schopná účinně pracovat. Právě proto jsou obranná řešení dneška hybridní, používají jak strojovou inteligenci, tak tradiční metodu detekce pomocí databází. Logickým řešením by jistě bylo bezpečnostní díry v systémech odstranit, ale to není tak
snadné. Zaprvé, dokonale zabezpečit síť a důsledně zachovat její žádoucí vlastnosti, jako je propustnost a flexibilita ani není teoreticky možné. Důvod druhý je ovšem pragmatičtější. Komunikační firma tCell minulý rok provedla rozsáhlou analýzu přes 316 milionů narušení bezpečnosti různých systémů po celém světě. Děsivé výsledky ukázaly, že ošetřit byť jen jedno citlivé místo v síti trvá v průměru 38 dní od jeho odhalení. A nezáleží, jestli hovoříme o sítích malých firmiček, národních konglomerátů nebo státních institucích. Schopnost nebezpečí předcházet je kriticky důležitá a s postupem času se stane ještě mocnější zbraní. Odpovědí na problém falešné detekce mohou být vyvíjené druhy AI, které se jej snaží obejít. Příkladem je ReaQta od stejnojmenné společnosti provozované experty ze zpravodajských služeb. Ti svou neuronovou síť naučili podrobovat systémy, do kterých je nasazena behaviorální analýza. AI se naučí, jak systém pracuje, a naskenuje své okolí i s bezpečnostními nedodělky. Potom funguje na pozadí jako jakýsi dozorce hledající výchylky z běžného naučeného provozu. Sleduje uživatele, kteří přesunují podezřele velké objemy dat, nebo třeba takové, kteří si až moc důkladně prohlížejí samotnou bezpečnostní síť. Celý projekt je postavený na jednoduché, ale chytré myšlence: Aby AI bezpečnostní průnik neodhalila, musel by probíhat listopad 2019 | www.rmol.cz