Umělá inteligence ve službách zločinu

Umělá inteligence, anglicky Artificial Intelligence (AI), nám v lecčems usnadňuje život. Zpracovává obrovské množství dat, které by člověk procházel roky, což platí i pro matematické problémy. Svou roli ale stále častěji plní i v takzvaných chytrých domácnostech. To, že se vysavač naučí nebourat v plné rychlosti do nábytku, je také zásluhou umělé inteligence. Jenže každý pokrok přináší i svá negativa. AI totiž podobně usnadňuje život i zločincům. Například generováním automatických kyberútoků nebo převzetím kontroly nad samořídícím autem. Nová zpráva Europolu proto varuje před tím, co všechno se může stát, a popisuje, jak to vypadá, když umělá inteligence přejde na temnou stranu.

Rčení, že příležitost dělá zloděje, zde platí téměř doslova. Zločinci s příchodem nových a stále dokonalejších technologií velmi rychle pochopili, že je lze zneužít. V rychle se vyvíjejícím světě technických novinek se proto často orientují lépe než běžní lidé. Online podvody nebo e-maily obsahující útočné softwary už známe a snad se jim i umíme bránit. Co se však stane, jestliže zločinci zapojí umělou inteligenci, která analyzuje skupiny obyvatel nejzranitelnější vůči takovým mailům, a odešle je na jejich adresy? Zákonitě se někdo chytí.

Umělá inteligence nejčastěji používá ke svému „vzdělávání“ takzvané strojové učení. Funguje to podobně jako v případě člověka, rozdíl je však v nesrovnatelné rychlosti „nabiflovaných“ dat či informací. Kupříkladu nevíte, co je to pes. Někdo vám proto ukáže určitý počet fotografií různých psů a pak fotografie „ne-psů“ – třeba ptáků. Na základě znaků typických pro psy – čtyři nohy, uši, ocas i tvar těla – se naučíte poznávat i jiné psy než ty, jež jste viděli na obrázku. Obdobně funguje zpracovávání informací i u umělé inteligence. Čím více dostane podnětů, tím lépe pak dokáže reagovat na nejrůznější situace. Navíc se ze svých reakcí na každou novou situaci dále učí a tím se zdokonaluje.

Zpráva Malicious Uses and Abuses of Artificial Intelligence osvětluje dva způsoby, jak mohou zločinci s umělou inteligencí nakládat – lze ji zneužít k podvodu (například automaticky generované maily) nebo se jejím prostřednictvím nabourat do domácnosti, která AI používá. Zločinec přitom ani nemusí být technologicky příliš zdatný. Existuje totiž zločin na objednávku (Crime-as-a-Service). Je to jednoduché – objednáte si, jaký online zločin chcete provést, zaplatíte a pak už jen shrábnete lup.

Sci-fi ze současnosti

S umělou inteligencí běžně pracují tvůrci nejrůznějších antivirových a jiných ochranných systémů. Jenže s AI začínají pracovat i ti na druhé straně barikády. Už v roce 2015 byl sestaven program, jenž uměl definovat, která slova neprojdou přes e-mailový detektor spamů, a tím pádem dokázal „vymyslet“, jaké kombinace slov použít, aby zpráva s nebezpečným obsahem přistála v e-mailové schránce uživatele. V roce 2017 zase hackeři popsali systém, který umí prezentovat nebezpečnou aplikaci na operačním systému chytrých telefonů Android jako naprosto bezpečnou. Důvěřivý uživatel si ji stáhne a ona mu poté vybrakuje všechny informace v telefonu včetně údajů k internetovému bankovnictví.

Mimo to se ukazuje, že když proti sobě postavíme dvě umělé inteligence, ta „zlá“ často vyhraje, neboť tu „dobrou“ dokáže přimět, aby nějakým způsobem změnila své chování. Nejprve si útok vyzkouší na jiných cílech a tím se naučí, jak na její snahy prolomit obranu odpovídají. A pak jede „naostro“.

Kyberzločin: Evoluce, ne revoluce

Jedním z velmi nebezpečných případů, kdy může jedna umělá inteligence ovládat druhou, jsou takzvané chytré domácnosti. Všechna zařízení napojená na jeden systém ovládaný hlasem jsou přímo zlatým dolem pro zloděje. Podle zprávy Europolu je v takovém případě nejjednodušší nabourat se do chytrých reproduktorů a z těch pak vysílat příkazy. Třeba „odemkni dveře“. Jestliže jsou všechna zařízení v domácnosti vzájemně propojená, může mít zloděj i dokonalý přehled, co všechno jde s pomocí výmluvné umělé inteligence ukrást. Díky jednotlivým zařízením také může sledovat, kde se majitel domácnosti právě nachází či pohybuje.

Další možnost, jak strojové učení používat, představuje aplikování umělé inteligence na odhalování hesel. Na to již existují speciální programy, které pracují se seznamy už známých, odněkud uniklých hesel – například počítač chápe, že „heslo1234“ nebo „h3sl0“ jsou jen variacemi slova „heslo“. Umělá inteligence je v tomto směru rychlá a velice efektivní. Jak už bylo řečeno, umí pracovat s větším množstvím dat a s každým dalším datasetem se učí nové věci. Nakonec tak dokáže i předvídat, jaké další variace výše zmíněných typů hesel mohou následovat, když uživatel heslo změní.

Europol kromě svých vlastních analýz bere v potaz i to, o čem zločinci nejčastěji diskutují na tajných internetových fórech. Jedno z takových témat je vycvičení umělé inteligence, aby se co možná nejvěrněji přiblížila k lidskému chování. Napodobování lidí se totiž může hodit například při obcházení „protirobotických“ opatření na sociálních sítích nebo jiných platformách (takzvaných CAPTCHA). Když se umělá inteligence chová jako člověk, může třeba poslouchat v určitých intervalech a ze stovek falešných účtů stále jednu a tutéž písničku, díky čemuž pak její autor (zločinec) vydělává peníze. Podobně funguje i vytváření falešných sledujících (followers) například na Instagramu – populární účty se totiž dají dobře zpeněžit, takže čím víc sledujících máme, tím lépe.

Umělou inteligenci lze využívat i při obchodování s kryptoměnami. Jakmile se naučí, které přístupy byly v minulosti efektivní, může na tomto trhu sama a účinně pracovat. Zločincům se tak mohou sypat peníze, aniž by pro to museli cokoli dělat.

Nejoblíbenější formou kyberzločinu je podle Europolu ale stále sociální inženýrství – zjednodušeně jde o podvody založené na získání citlivých informací a dat osob a následně jejich zneužití. Například bankovní instituce už používají systémy, které odhalí nestandardní chování svých klientů a chtějí po nich další ověření totožnosti – třeba zadání PINu i při platbě malých částek, což se za normální situace nepožaduje. Zločinci zkrátka těží z toho, že lidé obecně důvěřují autoritám a mají z nich respekt. Proto je například dobré vědět, že banka po vás nikdy nebude chtít vaše údaje přes e-mail nebo že nemáte do telefonu říkat lidem, jež neznáte, „ano“. Nová zpráva varuje, že už existuje umělá inteligence, která z pouhé pětisekundové nahrávky telefonátu dokáže hlas naklonovat a dále používat.

Podvod 419

Co nás čeká a nemine?

S čím dál tím větší automatizací nejrůznějších služeb a zařízení, které používáme každý den, bude narůstat i automatizace zločinu. Nejen ve formě kyberútoků řízených umělou inteligencí – a tedy rozsáhlejších a rychlejších, než kdyby je řídil člověk –, ale i ve formě napadání čehokoli, co umělou inteligenci používá. Mezi zločinci, kteří se v technologiích příliš nevyznají, tak poroste poptávka po již hotových a umělou inteligencí připravených zločinech. Logicky bude AI také čím dál tím více využívána ke skrytí tajných či nežádoucích online aktivit. Zpráva Europolu proto uvádí několik příkladů potenciálního zneužití umělé inteligence.

Auta, která se sama řídí, používají různé typy senzorů, jež snímají silnici, značky, okolní objekty. Tím, že jsou připojena k internetu, mohou zároveň odhadovat, jakou cestu zvolit na základě dopravní situace. Obdobně vybavená vozidla jsou rovněž naučená dodržovat dopravní předpisy. Jestliže by tedy útočníci například vhodně umístili značku „objížďky“, auto by poslechlo a jelo přesně tam, kam jej značka navede, třeba do zdi. Tímto způsobem „unesená“ auta mohou být také použitá jako překážka na cestě zasahující policii. 

Pokus s autem, které se samo řídí: vozidlo ví, že nesmí přejet přes plnou čáru, jen přes přerušovanou. Přes přerušovanou čáru auto do kruhu vjede, přes plnou už se ale nedostane ven. Zdroj: Malicious Uses and Abuses of Artificial Intelligence, Europol

Podvody založené na získání důvěry oběti (sociální inženýrství) jsou pro zločince časově náročné, jejich příběh totiž musí být uvěřitelný, aby jim lidé například poslali peníze. Když ovšem podvodník zapojí umělou inteligenci, nejenže může oslovovat jen osoby, které mají největší potenciál mu naletět, ale celý proces automatizovat. Z několika málo případů nejčastějších odpovědí takto oslovených osob se umělá inteligence naučí, jak nejlépe reagovat. Je pravda, že česky ještě AI neumí tak dobře, abychom to nepoznali, angličtinu už ale zvládá. I kdyby se umělá inteligence naučila odpovídat jen na několik prvních e-mailů – jako předvoj v zákaznickém servisu –, ušetří to zločincům obrovské množství času a peněz a počítači poskytne další a další případové studie, na nichž se může učit. Umělá inteligence se časem může naučit i sama telefonovat a dolovat tak z obětí informace. A to dokonce až do té míry, kdy bude používat hlas osoby, kterou potenciální oběť zná.

Další oblast, na kterou by se podvodníci posílení o umělou inteligenci mohli zaměřit, je ověřování uživatelů při zakládání bankovních účtů online. Pomocí umělých napodobenin reálných hlasů a díky používání obličejů nereálných lidí a falešných dokladů by zločinci mohli zakládat prakticky naprosto anonymní bankovní účty nebo autorizovat platby za jiné osoby. Proto se bankám momentálně doporučuje ověřování totožnosti nových zákazníků pomocí videí, ačkoli již nastal případ, kdy se zločincům během ověření totožnosti přes video podařilo v reálném čase obelhat systém falešnými doklady.

Velkou obavu rovněž vzbuzuje používání umělé inteligence k vytváření textových obsahů, například na sociálních sítích. Počítač se je může naučit napodobováním již existujících příspěvků a být tak od lidského uživatele naprosto nerozeznatelný. Jen si vzpomeňme, jakou dezinformační paseku napáchali lidští „trollové“ při amerických prezidentských volbách v roce 2016. Umělá inteligence by mohla sama psát i kratší texty a kombinovat pravdivé informace s těmi smyšlenými, přičemž by se sama učila, jaké typy textů publikum nejvíce zajímá – to samé platí i v případě podvodných e-mailů. Tím pádem by mohla sama tvořit i falešné webové stránky nebo na základě jen malého vzorku stylu psaní konkrétního jedince produkovat jeho rádoby vlastnoruční zprávy – například za ředitele velké společnosti, který e-mailem nařizuje své účetní odeslat peníze na neznámý účet. Taková AI postupně jistě zvládne i komunikaci v jiných jazycích, než je angličtina. 

Napodobování lidského chování umělou inteligencí by mohlo být přínosné i při krádeži bankovních údajů, kdy by se „umělý zloděj“ nadále choval jako člověk – například by utrácel až po pracovní době. Stejně tak by se napodobování mohlo hodit při krádeži účtů na sociálních sítích.

Umělá inteligence se zlepšuje i ve „čtení“ dokumentů – dokáže identifikovat ty části vět nebo textů, které mohou být podstatné, jako jsou třeba jména, příjmení nebo data narození. Rozlišuje i telefonní čísla, čísla kreditních karet nebo různé finanční měny. Dokonce je schopná rozlišovat názvy od vlastních jmen, nesplete si proto zajíce s panem Zajícem. Může se tedy stát, že místo útoku na celou databázi například nemocnice a stahování všech dokumentů o pacientech bude umělá inteligence dokumenty jen procházet a ukládat pro zločince podstatné informace – třeba jména a informace o pojištění.

Autorka textu: Zuzana Šotová
Zdroj úvodní fotografie: Ars Electronica / Robert Bauernhansl
Tento text vznikl díky finanční podpoře čtenářů, jako jste vy. Přidejte se do Klubu neprůstřelných a podpořte naši práci.