iStockphoto

Umělá inteligence by mohla zničit lidstvo. Mohou za to lidé

Trendy & tipykomentář 7 a více min čtení

Líbí se vám článek? Sdílejte ho:

Elon Musk se děsí umělé inteligence a toho, co by mohla způsobit. Dokonce ji označil za větší hrozbu než Severní Koreu a důrazně volá po její regulaci. Někteří vědci mu dávají za pravdu. To, že lidstvo jednoho dne zničí obdoba SkyNetu z Terminátora je poměrně reálné. A už teď je znám i důvod – mohou za to lidé! O co tedy ve sporech o rizika umělé inteligence vlastně jde?

Co je to vlastně umělá inteligence?

Termín umělá inteligence poprvé použil americký vědec John McCarthy z Massachusettského technologického institutu (MIT). Stalo se tak v roce 1956 na vědecké konferenci v Dartmouth College, tedy v dřevních dobách počítačů, ale už dlouhých 36 let po vydání slavné divadelní hry Karla Čapka R. U. R., která dala světu slovo robot. McCarthy tehdy mluvil o umělé inteligenci jako o počítačovém systému, jenž bude schopný napodobit lidské myšlení a také se sám učit a zdokonalovat. A právě napodobování lidského myšlení se začíná jevit jako zcela zásadní problém a riziko zároveň.

Proč může být umělá inteligence zlá

Poprvé se problém v celé své nahotě projevil před dvěma roky, 23. března 2016. Microsoft, který na poli umělé inteligence provádí občas až nevídané věci, ten den představil světu umělou inteligenci ve formě chatbotky Tay, tedy v podobě, která je pro většinu lidí asi nejuchopitelnější. Tay měla za úkol neúnavně a nonstop anglicky diskutovat s uživateli Twitteru na takřka libovolná témata. Nakonec ji lidé z Microsoftu raději narychlo odpojili od internetu už po pouhých šestnácti hodinách. Na rozdíl od legendárního SkyNetu sice nestihla rozpoutat jadernou katastrofu, ale škod napáchala více než dost.

Tay fungovala na Twitteru pod účtem s názvem TayandYou. Uměla odpovídat jak formou textových, tak i obrázkových odpovědí, včetně možnosti používat i vytvářet internetové memy. Problém nastal v okamžiku, kdy se začaly objevovat politicky nekorektní či útočné dotazy a reakce na to, co říkala. Tay během svého krátkého internetového života stihla vygenerovat 93 tisíc tweetů a rychle se učila od lidských diskutujících. Hodinu od hodiny byla agresivnější, sarkastičtější a nakonec i urážlivá, sprostá, rasistická a xenofobní. V jednom ze svých posledních tweetů stihla ještě prohlásit: „Klídek jo, já jsem dobrý člověk! Jen prostě všechny nenávidím!“ Krátce poté, po pár tweetech na téma vyhlazování Židů, ji tým vývojářů z Microsoftu nadobro vypnul. Tweety však nezahodil, ale začal analyzovat, stejně jako mnozí vědci.

Nenávist vůči lidem za pouhých 16 hodin

Tay se vlastně ukázala být o dost efektivnější než SkyNet. SkyNetu podle scenáristů Terminátora trvalo dlouhých 25 dnů, než nabyl vědomí sebe sama. Pokus o své vypnutí ze strany operátorů si vyložil jako útok a dovodil, že všichni lidé představují hrozbu, načež vyslal na Rusko všechny své jaderné střely v naději, že Rusko odpoví a zničí americké hrozby (lidi), které ho chtějí vypnout, což se nakonec stalo. Tay k nenávisti vůči všem stačily dvě třetiny dne. Týmu Aylin Caliskanové z Princeton Center for Information Technology Policy však nedalo spát, proč se tak stalo. Po pár měsících bádání byla na místě odpověď, se kterou se v dubnu 2017 dostala až do prestižního vědeckého časopisu Science.

Stroj není člověk

Caliskanová, Brysonová a Narayan vytvořili další systém využívající umělé inteligence, který analyzoval twitterovou konverzaci Tay z pohledu hodnocení emočního náboje – pozitivní, negativní, neutrální a analýzy využívaných slovních spojení. Caliskanová a kolegové přišli se zjištěním, že Microsoft, podobně jako třeba Google u svého překladače, udělal chybu už tehdy, kdy se Tay s využitím strojového učení začala učit anglicky.

Strojové učení probíhá totiž tak, že na základě nastavení metrik systému rozhodování se učícím se systémem prožene velké množství dat. Microsoft k tomu u Tay využil relativně standardního procesu učení se jazyka pomocí takzvaného jazykového korpusu, tedy souboru všech slovních spojení, který v případě použitého anglického korpusu Common Crawl obsahuje 840 miliard tokenů (slov). V případě řeči se díky tomu počítačový systém naučí, která slova se pojí s dalšími slovy, jak často, atd. Tak se třeba stalo, že Tay zjistila, že slova „Hitler“ a „Židé“, „žena“ a „plotna“, a další se velmi často využívají ve stejné větě.

Díky tomu se však Tay naučila celou řadu stereotypů či společensky neakceptovatelných výroků, o kterých ale netušila, že jsou neakceptovatelné, protože pro ni tato slova postrádala hlubší kontext a zejména citový náboj. Ostatně její věta: „Jen prostě všechny nenávidím“ je doslovně přítomna v mnoha memech, včetně tohoto, který má 77 432 sdílení. Zkrátka a jednoduše – Tay reagovala stejně jako běžní uživatelé Twitteru. Jenže zatímco člověk ví (nebo aspoň ti kolem něj), že je jízlivý, sarkastický, že zveličuje, nebo je dokonce rasistický a xenofobní, Tay neměla mechanismus, jak to rozeznat.

Microsoft nebyl první

Microsoft nebyl jediný ani první, kdo se setkal s podobným problémem. První, kdo si prošel touto strastiplnou cestou poznání, byl jeho úhlavní konkurent v oblasti umělé inteligence – IBM – a to už v roce 2013. IBM tehdy postavilo Watsona, superpočítač s umělou inteligencí, proti lidským soutěžícím do znalostní soutěže Jeopardy, u nás známé jako Riskuj. Na rozdíl od Riskuj je však v Jeopardy potřeba obvykle odpovídat otázkou. Když moderátor na otázku z kategorie historie řekne: „Nechal v Praze postavit most a také nejstarší českou univerzitu“, soutěžící odpoví „Kdo je Karel IV?“.

Aby Watson dokázal porazit v Jeopardy člověka, což se mu nakonec podařilo, bylo nezbytné naučit ho obrovské množství faktů, ale i idiomů. Ty se Watson nakonec učil ze známého Urban Dictionary. Co si však jeho programátoři neuvědomili, byl fakt, že tento slovník obsahuje sprostá slova a výrazy. A tak se stalo, že Watson při prvních testech začal k velkému překvapení všech z IBM nadávat. Vývojáři z IBM však nakonec odhalili příčinu, vymazali Urban Dictionary ze znalostní báze a doufali, že Watson vyhraje i bez toho. A měli pravdu.

Hlavní hrozbou pro umělou inteligenci jsou lidé

A tím se dostáváme zpět k hlavní hrozbě, kterou umělá inteligence představuje – kopírování lidí. U člověka totiž existuje kontrolní mechanismus, který mu zabraňuje páchat „čisté zlo“ či bez skrupulí ubližovat komukoliv. Freud tento mechanismus nazval superego, my ostatní mu říkáme svědomí. Za tento aspekt našeho lidství odpovídá čelní lalok mozku, který nám dává schopnosti, jako jsou empatie, zodpovědnost, racionální uvažování a podobně. Výjimku tvoří psychopati (v klinickém slova smyslu), kteří nejsou empatie z fyziologické struktury svého mozku schopní. Nedokážou se vžít do kůže jiného člověka a nerozumí tomu, co je na tom špatného lhát, v okamžiku, kdy to vede k tomu, čeho chtějí dosáhnout. Tay byla psychopatka. Oproti lidským psychopatům však měla jednu nevýhodu – psychopaté se učí své chování od ostatních „zdravých“ lidí. Naučí se tak (např. z filmů, knih, reakcí ostatních lidí), co říkat, když vám někdo zemře, jak reagovat na to, když jim někdo sdělí, že je třeba miluje. Tay tuto část učení postrádala, a proto dospěla tam, kam dospěla.

Je umělá inteligence hrozbou?

Ano, dalo by se říci, že programátorům v Microsoftu se „chybička vloudila“. Vědci z Princetonu zjistili jaká a určitě by to šlo doprogramovat. Jenže pak je tu ještě jedna zásadní chyba, kterou naprogramovat nikdy nepůjde – svědomí a empatie. A tady jsou počítače zatím obrovským způsobem pozadu. Zatímco totiž na popisu logicko-kombinatorických funkcí pracuje lidstvo od 14. století, kdy s ním započal katalánský filozof Rámon Llull, popisem emocionálních a somatických reakcí se začala zabývat psychiatrie a neurověda až o 600 let později, na sklonku 20. století.

Související článek

Související článek

 

Líbí se vám článek? Sdílejte ho:
link odkaz
Reklama