Foto: Martin Kovář

Petr Baudiš: Možná si budeme muset projít něčím špatným, abychom začali regulovat umělou inteligenci

Firmy chytřerozhovor 7 a více min čtení

Využití umělé inteligence může být prospěšné, ale i hodně nebezpečné. Jak to chtějí odborníci na umělou inteligenci řešit? Jak umělá inteligence pracuje s předsudky a jak nás ovlivní v budoucnu? 

Líbí se vám článek? Sdílejte ho:

Využití umělé inteligence může být prospěšné, ale i hodně nebezpečné. Jak to chtějí odborníci na umělou inteligenci řešit? Jak umělá inteligence pracuje s předsudky a jak nás ovlivní v budoucnu? 

Na Týdnu inovací jsem se na to zeptali Petra Baudiše, zakladatele startupu Rossum a jednoho ze světově uznávaných odborníků na výzkum a vývoj umělé inteligence. Hvězdou této akce byla umělou inteligenci využívající robotka Sophia, která na sebe strhávala obrovskou mediální pozornost. Petr Baudiš ale její existenci hodnotil spíš zdrženlivě.

Jak vnímáte cirkus, který se kolem přítomnosti robotky Sophie na veletrhu rozpoutal?

Cirkus není nic špatného. Není to a priori zlá věc, spíš jde o to, aby lidé, stojící za Sophií byli upřímní. Z hlediska výzkumné komunity kolem umělé inteligence se na Sophii snáší kritika za to, že její majitelé a celý marketing kolem ní zase tolik upřímný není. Je potřeba si uvědomit, že Sophie není živá. Nemá vědomí a evidentně je velká část interakcí naskriptovaná, i když na spoustu drobnějších podúloh nějaké techniky umělé inteligence používá.

Cirkus kolem Sophie nemusí být špatná věc, říká Petr Baudiš -

Proč majitelé nejsou upřímní?

Nechci se pouštět do velkého sporu s Hanson Robotics, ale jde třeba o to, že David Hanson v jednom rozhovoru prohlásil, že Sophia splňuje definici živé bytosti. Obecně se dá říct, že jejich marketing je hodně odvážný. Vypichují její získání občanství, vystupování na různých konferencích… Je ale potřeba si uvědomit, že to není robot, který by si uvědomoval sám sebe a dokázal přemýšlet v definici, kterou používáme pro lidské přemýšlení.

Tvůrci Sophie o detailech jejího fungování příliš nemluví. Vy sám říkáte, že určité formy umělé inteligence používá. Co si pod tím můžeme představit konkrétně?

Co se týká technik umělé inteligence, představte si to jako kostičky lega, které dokážou řešit konkrétní, specifické úlohy. Když se napojí na sebe, dá se z toho postavit systém, který řeší komplexnější úlohu. Některé součásti Sophie umělou inteligenci používají, možná i relativně moderní techniky umělé inteligence. Například pro rozpoznání toho, s kým se právě baví. Také na porozumění řeči a při rozhovoru vlastně i na výběr té správné větve scénáře, který má v sobě předem připravený.

Velký zájem z pohledu využití umělé inteligence nedávno vzbudila prezentace chytrého zařízení Google Assistant, které svého majitele prostřednictvím telefonátu s živým člověkem dokáže objednat do kadeřnictví nebo mu zarezervovat místo v restauraci. Jak toto hodnotíte?

Všiml jsem si toho. Taková schopnost může být skvělý pomocník. Jen mě zajímá, jak Google Assistant bude reagovat v praxi, pokud na druhé straně hovoru bude kadeřník, který je přistěhovalec a mluví špatně anglicky, případně bude říkat něco, co nebude odpovídat scénáři, se kterým umělá inteligence počítá. A také mě zajímá, jestli se takový problém objeví ve třiceti nebo pěti procentech situací. Ale budu jim držet palce.

Myslíte, že za chvíli chytrý asistent zavolá v podstatě kamkoliv a bude řešit všechny možné věci od objednání řemeslníka až po objednávku dovolené u moře?

Je to reálné, pokud na každé jednotlivé konkrétní situaci, jako je objednání se ke kadeřníkovi, bude tým pěti expertů tvrdě pracovat dejme tomu po dobu jednoho měsíce. Toto řešení je zkrátka hodně specifická technika a rozhodně to neznamená, že dnes umělá inteligence zvládne telefonát s kadeřníkem, příští rok toho dokáže desetkrát víc a za další rok vyřeší půlku takových situací v běžném životě.

Související článek

Umělá inteligence by mohla zabránit útoku v Praze

Proč tak dlouho trvalo pátrání po násilnících, kteří za bílého dne zmlátili číšníka v centru Prahy prošpikovaném kamerami? Jak zařídit, aby samořiditelná auta nebourala? A kde už za sedm let budou autonomní vozy běžnou součástí provozu?

Jak je těžké vyvinout řešení, které Google Assistant předvedl, pokud nepracujete pro Google nebo Amazon? Zvládl by to i někdo v Česku?

Nejtěžší část je porozumět jazyku a zformulovat lidskou řeč. To jsou ale technologie, které jsou dostupné skoro každému. Co pak zbývá, je tvrdá práce scenáristů, ale i programátorů a expertů na strojové učení, kteří zajišťují, aby se do scénáře takzvaně namapovala reálná interakce. Lidi, kteří by to dokázali, tady máme. V Česku je ovšem problém, že řešíme spoustu různých věcí, každá se řeší trošku a není tu důraz na dotažení jednoho konkrétního úkolu do konce. Když se vyřeší toto, technické i odborné síly na to máme.

Proč v tom tedy vyniká právě Google?

Google má ohromnou výhodu, že má všechna data, která potřebuje. A zároveň je poté dokáže využít ve všech produktech, které prodává. Kdyby stejnou službu skutečně vyvinul někdo v Česku, pořád bude řešit, jak ji lidem prodá a jaké zařízení pro to využije. Google ten problém nemá, pro něj je to jen další služba, která posiluje už tak silnou pozici.

Umělé inteligence se čím dál tím víc využívá i při zajišťování bezpečnosti například při rozeznávání tváří. Zejména v Číně už to ale přerůstá do orwellovského stavu, který nemá daleko ke sledování Velkým bratrem. Jak možné zneužití umělé inteligence jako její vývojář vnímáte?

Každá vědní disciplína došla do stavu, v jakém je umělá inteligence teď. Vyvinuli jsme spoustu přístupů, metod nebo látek s dvojím užitím. Prošla si tím třeba fyzika, nejprve klasická, poté i jaderná. Prošla si tím biologie, kde je zase spousta otázek kolem biologických zbraní. A teď umělá inteligence zažívá trošku šok z toho, že její výzkumníci musí začít přemýšlet o věcech, o kterých dřív uvažovat nemuseli. Ukázalo se, že dvojí užití má i spousta technologií v rámci umělé inteligence. Může to být užití prospěšné, ale i hodně nebezpečné. Začínají se proto třeba objevovat návrhy, aby každý odborný článek o umělé inteligenci měl jako povinnou součást zvážení etických dopadů, což v některých odvětvích biologie bývá běžný standard. Probíhá o tom diskuse, je fakt, že se s tím náš obor musí nějakým způsobem vypořádat.

Související článek

Existuje v rámci komunity výzkumníků umělé inteligence například mezinárodní komise, která by řešila etiku jejího použití?

Zatím je to spíš na úrovni iniciativ samotných výzkumníků. Mnoho vůdčích postav výzkumu umělé inteligence o tom sepisuje různá prohlášení, pořádají se konference. Z hlediska státních nebo mezinárodních regulací se toho ale tolik neděje. Je to trošku boj i mezi korporátní mocí a zájmy států, které na případné regulaci nemají příliš zájem, což může být případ Číny. Tento proces bude ještě složitý, protože hrozby jsou ve srovnání s jinými obory mnohem abstraktnější. Když máte atomové štěpení, je celkem přímočará hrozba atomové bomby. U umělé inteligence se spíš posouváme do oblasti orwellovské společnosti a politických dopadů.

Případné omezení je i zásah do světa internetu, na což je vnímání lidí celosvětově poměrně citlivé…

Internet je tradičně extrémně deregulované a liberální prostředí. A i já to tak v sobě mám. Proto v této komunitě nepřekvapí odpor k jakýmkoliv regulacím. Možná si dokonce budeme muset projít špatnými zkušenostmi, abychom našli společenský konsenzus, že je potřeba umělou inteligenci regulovat. Na druhou stranu nepromyšlená omezení jen nahrají konkurentům v jiných částech světa a zpomalí vědecký pokrok – proto nejlépe funguje samoregulace v rámci vědecké komunity.

Vy sám byste si domů pořídil například Amazon Echo nebo Google Assistant?

Mně by to nevadilo, ale manželka by s tím problém měla. U těchto zařízení jejich úspěch závisí na tom, jestli lidem záleží na soukromí, nebo ne. Myslím, že se ale ukáže, že většině ani tolik ne. A pak se soukromí stane luxusem.

Petr Baudiš -

Ve své prezentaci jste zmínil, že umělá inteligence pracuje s předsudky. Jak?

Možné to skutečně je. Jsou popsány fenomény, kdy jsou třeba znevýhodňováni lidé při přidělování půjček, protože nebydlí na správné adrese. Prostě proto, že neuronová síť chytrého řešení, které žádost vyhodnocuje, se naučí, že některá čtvrť není takzvaně dobrá. Přitom je to generalizace, která pro všechny obyvatele dané čtvrti rozhodně neplatí. Předsudky se mohou ale týkat i jmen. Pokud má totiž někdo příjmení, které indikuje etnickou příslušnost, může to být pro neuronovou síť negativní signál. To je samozřejmě špatně.

Obecně je potřeba postupovat tak, aby umělá inteligence ve světě nezvyšovala nespravedlnost, spíš by to mělo být naopak. Z tohoto pohledu je potřeba hodnotit, které naučené znalosti jsou pozitivní a které negativní. A záleží i na svědomí toho, kdo umělou inteligenci používá. Stejně jako máme společensky odpovědné korporace, které se pyšní tím, že vysadí strom, když si koupíte jejich výrobek, může to podobně fungovat s využitím umělé inteligence – firma může například pozitivně prezentovat, že její systémy využívající umělou inteligenci negativní formu předsudků neobsahují.

Jak dál se bude umělá inteligence vyvíjet?

Podobné predikce nemám rád, protože téměř nikdy nedopadnou dobře. Už teď je ale zřejmé, že umělá inteligence ještě víc prolne digitální životy a digitální zařízení lidí s jejich životy skutečnými. Věci jako mobily nebo jiná budoucí mobilní zařízení budou hrát v životě ještě větší roli než dnes, protože spoustu činností s nimi budou lidé dělat mnohem snáze než teď. A řadu každodenních rozhodnutí budou zařízení nebo počítače dělat rovnou za ně.

Líbí se vám článek? Sdílejte ho:
link odkaz
Reklama