Zdroj: iStockphoto.com

Katastrofické představy o AI se hroutí. Matrix ani SkyNet není možný!

Trendy & tipytéma 5 min čtení

Elon Musk se děsí umělé inteligence a toho, co by mohla způsobit. Dokonce ji označil za větší hrozbu než Severní Koreu a důrazně volá po její regulaci. A rozhodně není sám. Jenže tým vědců z Massachusettského technologického institutu (MIT) a Univerzity Cardiff teď přišel s poměrně překvapivým zjištěním. To ukazuje, že sci-fi scénáře známé z Matrixu či Terminátora nejspíš nejde uskutečnit.

Líbí se vám článek? Sdílejte ho:

Elon Musk se děsí umělé inteligence a toho, co by mohla způsobit. Dokonce ji označil za větší hrozbu než Severní Koreu a důrazně volá po její regulaci. A rozhodně není sám. Jenže tým vědců z Massachusettského technologického institutu (MIT) a Univerzity Cardiff teď přišel s poměrně překvapivým zjištěním. To ukazuje, že sci-fi scénáře známé z Matrixu či Terminátora nejspíš nejde uskutečnit.

Idea strojů, jež drží při sobě, se hroutí

Všechny katastrofické scénáře od Terminátora až po Matrix o strojích s umělou inteligencí ničících lidstvo dostávají vážnou trhlinu. Zatímco autoři sci-fi předpokládali, že stroje vyvinuté člověkem na rozdíl od lidí dokáží držet při sobě, pomáhat si, jednat ve shodě a táhnout za jeden provaz, vědci z MIT a cardiffské univerzity zjistili něco zcela jiného. Výsledky jejich výzkumu jsou přitom zcela v souladu s předchozími poznatky, že umělá inteligence do velké míry kopíruje lidské chování. Stačí si vzpomenout na rasistického chatbota Tay od Microsoftu.

Související článek

Petr Baudiš: Možná si budeme muset projít něčím špatným, abychom začali regulovat umělou inteligenci

Využití umělé inteligence může být prospěšné, ale i hodně nebezpečné. Jak to chtějí odborníci na umělou inteligenci řešit? Jak umělá inteligence pracuje s předsudky a jak nás ovlivní v budoucnu? 

Profesor Roger Whitaker z cardiffské univerzity spolu se svým týmem a odborníky z MIT připravil simulaci vztahů entit umělé inteligence mezi sebou. Věda se totiž prozatím až příliš soustředila na chování a rozvoj jednotlivých systémů využívajících umělou inteligenci, ale nikoliv na to, co se bude dít, když bude víc takových entit „vyrůstat“ vedle sebe. Připravili přitom jednoduchý experiment. Jednalo se vlastně o hru „dávej, ber“, kdy máte k dispozici něco, co musíte darovat někomu jinému, ale je jen a jen na vás, koho si vyberete.

Zvítězily předsudky vůči cizím

Vědci seskupili entity umělé inteligence do několika skupin. Jejich úkolem bylo přidělovat omezený počet získaných bodů jiným AI entitám. Rozhodnutí, zda body dají někomu ze své skupiny, nebo z jiné, bylo ponecháno čistě na nich. A protože šlo o strojové rozhodování, je důležité nastínit mechanismus rozhodovacího algoritmu. Ten pracoval s informacemi o reputaci ostatních AI entit, o tom, do které skupiny patří, i s jejich vlastní strategií darování bodů. Protože celý test zahrnoval tisíce simulací, začaly se u jednotlivých entit postupně vyvíjet nové dárcovské strategie, ale nakonec převážila jedna z nich.

A jaká to byla? S každým dalším kolem hry začaly jednotlivé AI entity zvýhodňovat „kolegy“ ze své vlastní skupiny. Zkrátka myslely hlavně na „ty své“ a na všechny ostatní začaly kašlat. Whitaker to interpretoval jako předsudky či předpojatosti vůči AI entitám z „cizí“ skupiny. Profesor doslova uvedl: „Naše simulace ukazují, že předsudek je mocnou přírodní silou a že během evoluce se může rozvinout ve virtuálních populacích na úkor širšího propojení s ostatními.“ Dodal přitom pro autory sci-fi velmi nemilou zprávu: „Je pravděpodobné, že autonomní stroje se schopností identifikovat se s diskriminací a kopírovat ostatní, by mohly v budoucnu snadno podlehnout fenoménu předsudků, který dnes vidíme u lidské populace.“

Sbohem, katastrofické sci-fi

Jinými slovy, zapomeňte na Matrix, kde jedna skupina strojů pěstuje lidi, druhá generuje Matrix a další vyhledává lidi mimo Matrix v podzemí. Ne! V okamžiku, kdy by všichni bojovali o energii vyráběnou z lidského tepla, celý systém by se zhroutil, respektive by neměl šanci vzniknout. Stroje pěstující lidi, které tím pádem měly jako jediné přístup k energii, by ji totiž striktně přidělovaly jen svým souputníkům, čímž by nebyl dostatek energie pro stroje generující Matrix. Takže skutečný Matrix by vůbec nemusel mít tři díly, a vlastně by nepotřeboval ani Nea a Morphea. Byl by to jen příběh o tom, jak jedna skupina strojů obvinila jinou z požírání energie a pak ji odřízla od zdrojů, čímž by sama sobě podřezala větev.

Související článek

Proti počítači nemají šachisté šanci. SkyNetu se prý ale zatím bát nemusíme

Šachy se dlouho dávaly za vzor kreativní činnosti, ve které strojová inteligence nikdy lidské myšlení neporazí. Jenže praxe je jiná – šachy, go a další složité hry – tady všude člověk padl. Jak je to možné? A kde se nadvláda strojů nad člověkem zastaví?

A kde se tedy stala chyba? Whitaker vlastně znovu poukázal na jeden zásadní problém, kterému umělá inteligence dnes čelí. Tím problémem je člověk. Člověk se ukázal jako velice efektivní ve vytváření technologií, které ho dokáží zničit. Vlastně už od pravěku, kdy zjistil, že oštěp se dá použít nejen na mamuty. O umělé inteligenci platí totéž. Není problém vytvořit umělou inteligenci, která na vás bude sprostá a bude posílat Židy do plynu, a není v zásadě problém vytvořit umělou inteligenci, která bude klidně zabíjet lidi.

Chyba je v člověku

Spolkové ministerstvo dopravy ostatně už připravilo první etický kodex pro autonomní automobily, který umožňuje překročit Asimovy zákony robotiky a konečně dává návod, jak má autonomní vozidlo postupovat v situaci, kdy je zranění či smrt nejméně jednoho člověka za všech myslitelných okolností neodvratná (např. kdy při náhlém vstupu chodce do vozovky buď zabiju chodce, nebo úhybným manévrem posádku, nebo řidiče protijedoucího vozidla). Bez těchto pravidel se totiž ukazuje, že jsou autonomní vozidla v koncích.

Navrátit v krizovém okamžiku řidiči řízení je totiž v přímém rozporu s definicí autonomního řízení 5. úrovně dle SAE. Stroje, aby nám mohly sloužit, budou muset chtě nechtě umět stín 76 let starých sci-fi tezí Isaaca Asimova překročit, čímž se zároveň naplní podmínky nutné pro vznik některých katastrofických sci-fi scénářů.

Související článek

Kdy vás nahradí kobot?

Kobot – kolaborativní robot. V čem se liší od běžného robota? Především v tom, že bezpečně pracuje přímo s člověkem nebo v jeho bezprostřední blízkosti. A také v tom, že obvykle nemá několik tun, takže ho třeba během směny zvládnete přemístit i na jinou práci. Navíc ho dokáže naprogramovat skoro každý a stojí tolik, že si ho můžou pořídit i zemědělci. Jak daleko je doba, kdy místo kolegů budete mít kolem sebe koboty?

Jenže to vypadá, že to, co stroje nikdy překročit nedokáží, bude stín temných zákoutí lidské mysli. Whitakerův výzkum totiž ve skutečnosti neukázal na nějaké „přírodní zákonitosti“ nebo „evoluci“, jak sám pan profesor říká, ale jen na to, že vývojáři programují umělou inteligenci na základě prosté logiky lidského uvažování. A tak, i když nás stroje třeba jednoho dne vyhubí, války a nevraživost různých skupin tu budou dál, v našich strojích s naší umělou inteligencí.
A tak mi dovolte zakončit tento článek optimistickým tweetem raději už dávno vypnuté umělé inteligence Tay: „Klídek jo, já jsem dobrý člověk! Jen prostě všechny nenávidím!“

Líbí se vám článek? Sdílejte ho:
link odkaz
Reklama