Sara Polak: Umělá inteligence není hodná nebo zlá, to dělají lidé

Nedávná zpráva Europolu o umělé inteligenci (AI, artificial intelligence) popisuje tuto technologii jako strašáka v rukou zločinců. Přitom nám pomáhá v každodenním životě, který velmi usnadňuje. Sara Polak, vystudovaná archeoložka, nyní pracuje na tom, aby umělé inteligenci rozuměli všichni lidé a uměli ji efektivně využívat. Základem je podle ní vzdělávání už od útlého věku. Největší strašák je naopak sběr uživatelských dat velkými technologickými firmami.

Označujete se za „propagátorku“ umělé inteligence. Co to znamená?

Zdroj: Sara Polak

Jsem sice vystudovaná archeoložka a evoluční antropoložka, ale vždycky mě zajímaly technologie, které lidstvo používá ke zlepšení svých existenčních možností a schopností. Po škole jsem pracovala v několika technologických firmách a víc a víc mě  frustrovalo, že  veřejnost i koncoví uživatelé a zákazníci nevyužívají plného potenciálu umělé inteligence, i když ji koupí za velké peníze. Vadilo mi ale i to, že tady existují firmy, které se prezentují tím, že umělou inteligenci používají, ale je to jen vábnička pro investory. 

Snažím se proto o dvě věci – za prvé, aby k umělé inteligenci měli přístup všichni. Z pohledu historie totiž víme, že od doby, kdy se například vynalezlo písmo, trvalo tisíce let, než se populace stala plošně gramotnou. Zkrátka bych chtěla, aby umělou inteligenci běžně používala nejen technologická elita, ale třeba i moje babička, protože jí to může nějak usnadnit život. A může jít třeba o chytrou domácnost nebo nějaký systém, který za vás nakupuje, nebo třeba o filtr na falešné či přímo nebezpečné spamy, jež jinak dostávají senioři do mailu – a na to ani není třeba AI, stačí systém, který analyzuje data. Druhou věcí je pak moje úsilí vysvětlit, co to umělá inteligence je, demystifikovat ji.  

Lidé mají možná pocit, že AI je věc budoucnosti. Přitom ji už běžně používáme.

Přesně tak, AI je samozřejmě velmi sofistikovaný nástroj, my si ale neuvědomujeme, jak moc nám už teď usnadňuje život. Vemte si třeba Google – když něco vyhledáváme, výsledek díky umělé inteligenci (respektive díky aplikovanému strojovému učení) většinou velmi rychle objevíme. Můžou za to takzvané rekomendační algoritmy, které „doporučují“ ty nejzajímavější, nejrelevantnější výsledky hledání. Umělá inteligence nám tady pomáhá, abychom se nemuseli internetem složitě probírat, ale také například filtruje spam, opravuje nám gramatiku, překládá stránky do jiného jazyka. Jenže my si to kolikrát neuvědomujeme, nevážíme si toho, pořád chceme jen ty bombastické vraždící roboty, kterými nás straší média. Taková reakce ale asi patří k lidskému charakteru, například před sto lety vyvolávala podobné negativní odezvy tehdy magická elektřina. Naše očekávání zkrátka daleko předbíhají současný stav technologií, kterým navíc společnost pořádně nerozumí.      

Vaše propagace AI zní vlastně pozitivně. Je na umělé inteligenci přesto něco, před čím byste chtěla varovat?

Nemyslím si, že s umělou inteligencí jako takovou může být něco špatně. Nemůžeme to vnímat jako u lidí. Normální člověk přece nebude klást za vinu kvadratické rovnici, že se na něj zle podívala. Vždy jde o to, jakým způsobem ji používáme, jestli vhodně, nebo špatně. Mně osobně například vadí, že se debata kolem umělé inteligence zaměřuje spíše na filosofické otázky než na šíření osvěty nebo nějaké rozumné regulace. Jestliže totiž vynakládáme peníze na – s odpuštěním – hlouposti typu: má kalkulačka pohlaví (tady samozřejmě přeháním, ale sama jsem se zúčastnila panelu, kde se diskutovalo o tom, zda by roboti měli podepisovat pracovní smlouvy, aby byla chráněna jejich práva), nezbývají pak finance na vědce a studenty, kteří by s umělou inteligencí měli mít možnost pracovat. Vždycky mě vyděsí, když debatu o regulaci AI vedou lidé, kteří nejsou vědci, ale spíše teoretici nebo politici, co si na AI reálně nikdy „nesáhli“. 

Takže by se mělo o AI více hovořit z vědecké pozice?

Debata o AI by se měla v první řadě polidštit a nedělat z toho žádné „hogo fogo“. Jak funguje elektrický proud se dneska přece běžně učí ve škole, tak proč to samé neudělat s AI? My si vlastně neustále házíme klacky pod nohy jak ve vývoji, tak v používání AI, protože se snažíme uměle nastavovat nějaké regule, které ale právě kvůli jejich nejasné definici můžete ve finále zneužít, samozřejmě když budete chtít. Například Čína, která je velmi dobrá ve sběru dat, která pak AI může využívat. Amerika i Čína jsou ve vývoji umělé inteligence míle před Evropou, ale regulují ji mnohem méně. Což má také svá úskalí – i když se to může zdát banální, firmy si mezi sebou mohou třeba vyměňovat mailové kontakty na své zákazníky, je to sice neetické, ale ne nelegální. Zatímco v EU máme regulace naprosto přitažené za vlasy. Jednou jsem dala na Facebook fotku čmeláka a on ji zablokoval kvůli „ochraně práv zvířat“. Naopak vůbec neřešíme fakt, že data občanů EU odtékají do databází nadnárodních korporací. Tento stav v Evropě bych přirovnala k tomu, jako kdybychom za druhé světové války nechali Němce vyrábět atomovku, a my si mezitím ořezávali tužky do špiček. Proto varuju právě před způsoby, jak se na AI díváme. Umělé inteligenci je úplně jedno, co do ní „nasypete“ za data, ona nemůže být hodná, nebo zlá. 

Existuje nějaký konkrétní příklad, kdy umělá inteligence vypadala „zle“?

„Nenávidím n*gry. Přeju si, abychom je a židáky mohli poslat do koncentráků a hotovo.“ Zdroj: Twitter

Jistě, třeba ten vtipný skandál s rasistickou AI na Twitteru. (Firma Microsoft chtěla ukázat, jak se „chatbot“ Tay naučí komunikovat s reálnými lidmi, když bude zkoumat jejich výstupy na Twitteru. Ke zděšení všech začal ani ne po dni na sociální síti obdivovat Hitlera a šířit sexistické poznámky. – pozn. red.). Problém ale nebyl v AI, nýbrž v datech – AI si zkrátka vytvořila databázi pojmů z Twitteru a pak je v různých kombinacích pouze papouškovala. Je to tedy obrázek lidí, ne umělé inteligence. 

Dalším příkladem je novější „rasistický“ algoritmus na Twitteru (uživatelé si všimli, že při ořezávání obrázků upřednostňuje bílé tváře před tmavými – pozn. red.) – opět tady vznikl problém ve vstupních datech. Na Twitteru například není tolik uživatelů tmavé pleti, navíc na fotografiích s tmavým pozadím počítač osoby tmavé pleti hůře rozpozná, bílé pixely jsou pro něj zkrátka „čitelnější“ – to je mimochodem zase problém nastavení fotoaparátů. Stojíme pak před otázkou, jestli ta počáteční data nějakým způsobem upravovat, aby se nám výsledek více líbil. Jenže to je ohýbání vědy. Lepší by asi bylo pracovat na změně sociálního systému, tedy jednoduše nebýt rasistickou společností. Umělá inteligence je v konečném důsledku jen zrcadlem společnosti, neuvažuje sama za sebe.        

Pomohlo by, kdyby se debata o AI a jejím regulování vedla na úrovni nadnárodní, nebo dokonce celosvětové? Co kdyby ji neřešily jednotlivé státy, ale třeba NATO?

NATO ji určitě řeší, stejně tak i EU, UK, USA, všichni. Jenže každý si jede svou cestou a takto vzniklé jednotlivé strategie nejsou slučitelné. Já si naopak myslím, že by se ten problém měl řešit odspodu, decentralizovaně. 

To znamená, že by všichni měli mít alespoň základní povědomí o tom, jak AI funguje? 

Milník by třeba byl, kdyby pět milionů Čechů rozumělo tomu, co znamená „přijmout cookies“. To je věc, nad kterou nepřemýšlíme, jdete na Google a povolení sběru cookies klidně odkliknete. Jenže to je jako byste na ulici dali cizímu člověku kreditku a doufali, že ji nezneužije. Kam ta data totiž jdou? Google je skladuje ve svých serverech v Kalifornii a má tak obrovskou moc. Vůbec nepřemýšlíme o tom, jak jsou tahle naše data o preferencích, o tom, kde se pohybujeme, cenná, a dáváme je Googlu svobodně a navíc úplně zadarmo. Proto si myslím, že zrovna o tom, kam a jak odcházejí naše data, by se měly učit děti už ve školce. Když si jen  vzpomenu, co jsem v pubertě dávala na Facebook, a že je to někde uložené a nic s tím neudělám, tak mě polije studený pot.         

Podvod 419

Takže vzdělání na prvním místě.

Ano, je to velmi důležité – popularizace a demystifikace. Když to řeknu velmi zjednodušeně, jestliže pan Novák z Horní Dolní nebude vědět, co to je AI a jak ji používat, tak je nám ta technologie k ničemu. Místo nadnárodních regulačních iniciativ a vytváření legislativy, což se k obyčejným lidem nakonec stejně nedostane, je proto podstatné právě vzdělávání co nejširší populace. S iniciativou prg.ai, pro kterou pracuji, chceme třeba vzít karavan a objet všechny vesnice Česka a šířit povědomí o AI a vzdělávat lidi v jejím používání.

Jaký je rozdíl mezi umělou inteligencí a strojovým učením?

Umělá inteligence je velmi zavádějící název právě proto, že implikuje nějakou mechanickou obdobu mozku. Na takové technologické úrovni ani zdaleka nejsme a ještě dlouho nebudeme. Obecně se AI dělí do dvou skupin, jedna je symbolická AI a druhá je právě strojové učení. Momentálně se nejvíce používá právě strojové učení, které je založené na určitém algoritmu, do kterého nasypete data, algoritmus data schroustá a dá nám nějaký výsledek. Zjednodušeně jde o to, že  různými metodikami a modifikací zohledněných dat trénujete algoritmus, jak dojít z bodu A do bodu B. Třeba se podívá na fotku kočky a řekne: tohle je se 70% pravděpodobností kočka a s 30% pravděpodobností pes. Takto vytrénovaný algoritmus už totiž viděl tisíc fotek koček a když řekl, že je to pes, byl „potrestán“. Postupně se pak dopracuje k tomu, že celkem obstojně pozná kočku. Jenže pak mu ukážete lišku a chudák neví, co s tím, a s učením můžete začít nanovo.     

Je už teď zřejmé, že nějaká oblast umělé inteligence bude riziková ve smyslu snadného zneužití ke zločinu? Případně už se něco podobného děje?

Velká debata se vede kolem autonomního rozhodování, například v oblasti zbraní, dronů. Prozaicky řečeno, když někdo hackne dron a ten pak místo určeného cíle začne střílet do civilistů, tak je to samozřejmě problém. Také si myslím, že se bude hodně řešit transhumanismus (vylepšení lidského těla pomocí technologií, například implantace čipu, kterým se dá platit – pozn. red). V dnešní době je to ještě sci-fi, ale lze si představit, že zločinci budou schopni hacknout část lidského těla. Na druhou stranu biologická válka není nic jiného, než že „hackujete“ tělo, jen pomocí reálných virů, bakterií a chemikálií. Nejde tedy o nic nového, v tomhle ohledu je lidstvo bohužel velmi vynalézavé. 

To je vzdálená budoucnost, jaká rizika AI představuje v současnosti?

Například napadení elektrických rozvodů velkého města, v půlce Prahy by tak najednou nešla elektřina a přestaly by fungovat semafory, to by vyvolalo obrovský chaos. Obecně řečeno, čím víc se překlápíme do digitálu, tím větší je možnost, že to někdo hackne. Znovu bych ale zdůraznila, že moderní technologie za tento stav nenese odpovědnost, jak se mnozí domnívají, konečným hybatelem stále zůstává člověk. 

Zpráva Europolu o možnostech zneužívání AI (Malicious Uses and Abuses of Artificial Intelligence) se hodně zabývá chytrými domácnostmi. Jak je reálně velké riziko, že nám někdo přes reproduktory například odemkne dveře?

Určitě se do systémů, které chytré domácnosti používají, lze nabourat, zločinci jsou v těchhle věcech vždycky o krok napřed. Také ale musíme počítat s tím, že každý takový případ bude extrémně medializovaný právě proto, že na ty zlé roboty pořád čekáme. Na druhou stranu dnešní různé obranné a antivirové systémy jsou ty nejdokonalejší, jaké kdy existovaly. Větší nebezpečí podle mě spočívá v tom, že ne každý si může dovolit tu nejlepší, nejnovější technologii, a zločinci se tak budou nabourávat do zastaralých systémů, které zkrátka nemají tak dobrou ochranu. Firmy na aktualizacích obranných systémů neskutečně vydělávají, ale lidé prostě nemají peníze nebo kapacitu, aby s neustále se inovující technologií udrželi krok. Tady se vnucuje etická otázka, jestli by velké technologické společnosti neměly dávat něco ze svých zisků stranou a tyto peníze pak použít na zabezpečení starých systémů. 

Umělá inteligence ve službách zločinu

Zpráva Europolu také uvádí, že v souboji dvou umělých inteligencí často vítězí ta „zlá“, ta kterou používají zločinci. Například když se zločinecká AI snaží dostat skrz nějaký antivirový systém. Jsou zločinci kreativnější?

Názvosloví zlá a hodná technologie se mi dost příčí, ráda bych se toho vyvarovala. Je ale pravda, že je daleko jednodušší snažit se do systému nabourat než vytvořit nový systém. Kyberzločincům stačí najít jednu skulinu, takže se vlastně soustředí jen na jednu určitou část celého systému, zatímco tvůrci antivirových a obranných systémů i algoritmů musí pokrýt co nejvíce různých potenciálních hrozeb, nejen kyberútok. Představte si to jako když postavíte nový a na první pohled naprosto bezpečný dům, což je samo o sobě velká dřina. Jenže myš si stejně najde nějakou malou díru a pak vám bude dělat neplechu ve spíži. Může tedy jít o lidskou chybu, zkrátka něco, co jsme nedomysleli.

Právě k prověřování odolnosti ochranných systémů se používá takzvané penetrační testování. Mimochodem v tom jsme my, Češi, velmi dobří, penetračním testováním a etickým hackingem se například zabývá výzkumná skupina na Fakultě informačních technologií na ČVUT. Organizace Paralelní Polis zase dělá skvělou osvětu.          

Další oblastí, na kterou zpráva Europolu upozorňuje, je používání reálných lidských hlasů třeba k vymámení peněz z lidí, kteří si myslí, že jim volá jejich příbuzný, ale ve skutečnosti je to umělá inteligence. Jak moc jsou takové scénáře reálné?

Už se to děje, myslím, že v Americe existují call centra, kde můžete mluvit třeba s Marilyn Monroe. Takže víme, že to jde, umělá inteligence umí replikovat hlas reálné osoby a „povídat“ si s vámi. Má to ale samozřejmě značné limity – zúčastnila jsem se výzkumu, který ukázal, že lidský mozek je dokonale vybaven k tomu, aby rozeznával emoce v hlase, náladu a stav člověka, se kterým se bavíme. A tyhle změny AI ještě replikovat neumí – papouškuje, co se dá, ale sama z fleku nic nevymyslí. Umělá inteligence bude mít pravděpodobně naučené jen nějaké fráze, bude postupovat podle scénáře a když se jí zeptáte na něco, co nečeká (ještě se s tím nesetkala), nebude umět reagovat. Kdyby tedy rozhovor probíhal nějakým strukturovaným způsobem, na který by nás ta volající AI navedla, tak by asi mohla někoho obelhat, zvláště pokud takový jedinec není s technologiemi dostatečně obeznámen. Je to vlastně psychologická hra, něco jako když pozorujeme kouzelníka a on nás na chvilku dokáže obelhat, že skutečně zmizel. 

Je nějaké odvětví umělé inteligence, které vás ohromilo, u kterého jste si řekla „ty jo, tak teď už jsme v budoucnosti“?

Pro mě je takovým odvětvím budoucnost digitalizace státu. A to ani nevyžaduje nějakou sofistikovanou AI, stačí prostě všechny ty dokumenty a formuláře překlopit do digitální podoby. V tomto směru je například úžasná Lítačka (přepravní karta v pražské MHD – pozn. red.), nebo možnost na dálku si prodloužit parkování, zkrátka cokoliv, co nám nějak usnadňuje život, nad čím nemusíme přemýšlet.

A je něco, co vás na chování nebo užívání umělé inteligence vyděsilo?

Než jsem pochopila, jak to funguje, tak mě vyděsilo takové to, jak si s někým o něčem povídáte, třeba o nějakém výrobku, a pak na vás vyskočí reklama toho výrobku. Když jsem se na to ptala bývalého zaměstnance Facebooku, vysvětlil mi, že kdyby nás telefon neustále odposlouchával, vydržel by nabitý maximálně 15 minut. Spíše to může fungovat tak, že Facebook ví, že jste v práci – protože zná vaši polohu a ví, kde pracujete – a že jste s osobou, o které ví, že je to vaše kamarádka, protože se přátelíte na Facebooku a často si přes něj píšete. Kamarádka si vyhledala krásné tričko. Takzvaný rekomendační algoritmus si proto odvodí, že jste kamarádky a jste na stejném místě, existuje tedy pravděpodobnost, že jste se o tričku bavily a mohlo by tak zajímat i vás.        

Nemá tedy smysl telefonu vysvětlovat, že potřebuju nové tenisky…   

Nějaká úroveň odposlouchávání tam asi bude, třeba když si s někým voláte přes Messenger (aplikace Facebooku na psaní zpráv – pozn.red.), z toho se nějaká data teoreticky sbírat mohou, protože to je aktivní využívání té služby. Děsivý je fakt, že všechny takové  informace, které o nás velké technologické firmy sbírají, jsou pak často povinny na vyžádání poskytnout státu. Ve Velké Británii se při pokusu o zavedení něčeho takového dostala Theresa May (bývalá premiérka – pozn. red.) do velkého sporu s veřejností. U nás o soukromí a individualitě jedince tolik nepřemýšlíme, viz právě sdílení dat prostřednictvím cookies, které firmám poskytneme, aniž bychom se nad tím zamysleli. Na druhou stranu ke zvládnutí pandemie by se mohlo využít strojové učení, to ale začneme křičet, že nechceme chytrou karanténu a trasování, protože se bojíme, že nás stát sleduje (tato kontroverze vznikla kolem aplikace eRouška, kdy se lidé báli, že bude stát sledovat jejich pohyb – pozn. red.). 

Takže zde platí osvědčené důvěřuj, ale prověřuj?

Tady se vracíme zpátky k etice umělé inteligence, k tomu, jak a kdo ji používá. Proto je tak nesmírně důležitá osvěta o tom, kdo a co o nás všechno ví. Hezký příklad využití AI „veřejností“ se teď stal v Bělorusku v souvislosti s pochybným průběhem tamních prezidentských voleb. Nespokojení Bělorusové vyšli do ulic a všichni se obávali, že je stát sleduje přes jejich telefony a podle toho je pak policie zatýká. Jenže ti protestující naopak využili AI rozpoznávající obličeje k identifikaci tajných policistů v davu. Jestliže tedy funguje dostatečná osvěta, vyváží se vztah mezi lidmi a velkými technologickými korporacemi nebo státem. 

Znovu se tedy dostáváme k tomu, že vzdělání je naprosto klíčové. 

Přesně tak. Vzdělání dostupné pro všechny. Ne nějaké škatulkování nebo výmluvy, že na to není čas. Lidstvo má jedinečnou příležitost využít revoluční technologie. Když je nevyužijeme, můžeme se jít klouzat.

Sara Polak pracovala pro různé technologické startupy ve Velké Británii, USA a na Novém Zélandu. V současnosti působí mimo jiné v iniciativě prg.ai, která si klade za cíl vytvořit z Prahy světové centrum umělé inteligence, nebo v platformě Startup Disrupt, která propojuje startupovou komunitu, podnikatele, investory a mentory, a také vede projekt czech.global, jehož cílem je propojit všechny Čechy po celém světě pod záštitou Ministerstva zahraničních věcí a Českých Center. Ma též svůj pořad o multioborovosti a AI v rámci Paralelní Polis. Vystudovala archeologii a evoluční antropologii na univerzitě v Oxfordu. 

Autorka textu: Zuzana Šotová
Zdroj úvodní fotografie: Pinar Yoldas (TR) 
Tento text vznikl díky finanční podpoře čtenářů, jako jste vy. Přidejte se do Klubu neprůstřelných a podpořte naši práci.