Foto: Archiv redakce

Ondřej Veselý: Čech, který v Bruselu hlídá, aby nás umělá inteligence nezničila

Stát chytřerozhovor 6 min čtení

Etika a umělá inteligence. Téma, které roky řeší vědci po celém světě. Stačí totiž překvapivě málo a roboti můžou změnit fungování světa tak, jak ho známe dnes. Jedním z odborníků na etiku a technologie je i Ondřej Veselý, jenž je členem skupiny Evropské komise, která posuzuje, jestli firmy vývojem technologií neohrožují lidskou společnost.

Líbí se vám článek? Sdílejte ho:

Etika a umělá inteligence. Téma, které roky řeší vědci po celém světě. Stačí totiž překvapivě málo a roboti můžou změnit fungování světa tak, jak ho známe dnes. Jedním z odborníků na etiku a technologie je i Ondřej Veselý, jenž je členem skupiny Evropské komise, která posuzuje, jestli firmy vývojem technologií neohrožují lidskou společnost.

Související článek

Dan Přibáň: Co jsme viděli v Číně, by vyděsilo každého

Dan Přibáň projel s trabanty Afriku, postsovětské země, Jižní Ameriku, Austrálii i část jihovýchodní Asie. Průjezd Čínou ale považuje za nejhorší dny, jaké kdy zažil. Deptalo ho spojení moderní techniky a režimu, který se lidskými právy a svobodami příliš nezdržuje. V praxi to představovalo obří rentgeny aut na hranicích, všudypřítomné kamery nebo povinně instalovaný sledovací software v mobilu. „Neuměl jsem si představit, že by něco takového mohlo existovat. Tak masivní využití technologií jsem v životě neviděl. Čína využívá moderní techniku dost odpudivým způsobem,“ říká patrně nejznámější český cestovatel současnosti.

Ondřej Veselý se podle svých slov k práci pro Evropskou komisi dostal vlastně náhodou. V rámci diplomové a disertační práce vyvíjel antiplagiátorské řešení a příspěvky o něm přitom publikoval vedle technických konferencí i na humanitně zaměřených akcích, kde se řešily způsoby prevence plagiátorství. Jednoduše řečeno se zabýval tím, jak zařídit, aby studenti neopisovali. „Moje vědecká práce spadla do škatulky odborník na etiku, do níž jsem se dostal spíš omylem, protože jsem se zaměřoval hlavně na technické řešení. A někdy v té době mě díky životopisu lidé z Evropské komise oslovili. Bylo to kvůli robotice, kterou vnímali jako důležité téma,“ vysvětluje Ondřej Veselý. I to je už ale jinak, protože robotiku coby nosné téma vystřídalo strojové učení.

V čem spočívá vaše práce pro Evropskou komisi?

Hodnotím projekty v rámci Horizon 2020, které vymýšlejí různá konsorcia soukromých firem a univerzit. V jejich rámci přicházejí s řešením různých problémů pomocí strojového učení. Například jsme zrovna řešili, jak zlepšit analytické nástroje pro policisty. Konsorcia si problém vyberou, napíší na něj projekt i za desítky milionů eur a komise rozhodne, jestli jim ho bude financovat. Ještě předtím, než na něj vydá stanovisko, předá nám ho k posouzení.

Související článek

Český startup hlídá dopravu a rozpozná i sebevraha

Software české firmy Quantasoft umí upozornit na člověka, který chce krást nebo ubližovat ostatním. Z výrazu tváře také dokáže rozpoznat, jestli se někdo nechystá spáchat sebevraždu. Pomáhá i majitelům obchodů – sleduje, kde se pohybuje nejvíc zákazníků, o jaké zboží se zajímají, ale i to, kolik jim je let a jakou mají momentálně náladu.

Kdo přesně je součástí vaší skupiny?

V mém týmu jsou odborníci na etiku. K projektu se můžeme vyjádřit, úplně jej zamítnout nebo zhodnotit, že by se výzkumem dělo něco neetického. A abychom tomu zamezili, vzneseme nějaké požadavky. Výzkum financovaný Evropskou unií jednoduše nemůže být neetický.

Kolik členů má takový tým?

To je různé. Já se ani nesetkám se všemi, jsme rozděleni do různých skupin. Dlouho také schůze probíhaly on-line, kdy jsme debatovali prostřednictvím počítačů. Jenže je potřeba, abychom se v týmu shodli, a dosáhnout toho je takovým způsobem opravdu těžké. Teď proto zkoušíme, jaké to bude, když se budeme scházet v Bruselu.

Můžete přiblížit, co konkrétně řešíte?

Například musíme zajistit, aby pacient v nemocnicích měl vždy právo odmítnout péči robota. Pro někoho to je to narušení důstojnosti, a vždy by tedy měl právo říct, že ji nechce – ať už jde o operace, nebo o servis. Některé firmy například vyvíjejí chatboty, kteří dělají starším lidem společnost. A může se stát, pokud se chatbot dělá určitým způsobem, že si na něm senior získá závislost. A pak už se ani nebude chtít bavit s ostatními lidmi. 

To mi trochu připomíná některé zápletky z britského seriálu Black Mirror…

Ano, Black Mirror je samozřejmě něco, co je velmi zajímavé. To, co vidím v projektech, je tomu podobné. Tak například teď jsme řešili už zmíněné projekty pro policejní složky. Dobrý úmysl zněl: pojďme udělat policistům lepší nástroje na to, aby dělali svou práci. Po městě se v takovém případě rozšíří terahertzové kamery, které vidí skrz oblečení. Spojí se monitoring se sociálními sítěmi a s databází kriminality. A kamery budou v reálném čase ve městě sledovat, jak se lidé chovají. Pokud se někdo chová anomálně a podobá se to tomu, co je v databázi kriminálního chování, policistovi se rozsvítí čtvereček kolem člověka a můžou jej kontrolovat. To zní v pořádku.

Související článek

Petr Baudiš: Možná si budeme muset projít něčím špatným, abychom začali regulovat umělou inteligenci

Využití umělé inteligence může být prospěšné, ale i hodně nebezpečné. Jak to chtějí odborníci na umělou inteligenci řešit? Jak umělá inteligence pracuje s předsudky a jak nás ovlivní v budoucnu? 

Jenže jen pokud se to udělá dobře. Já vidím z praxe, jak se to dělá v soukromých firmách. Ne vždy se skórování lidí podaří. Někdo to neuronovou síť naučí na lidech různých ras a zjistí se třeba, že v oblastech, ze kterých má dataset, černoši páchají kriminalitu. V tu chvíli se umělá inteligence naučí, že když je někdo černoch, má zvýšenou pravděpodobnost, že bude páchat kriminalitu. Pak se nasadí v jiné oblasti a policisté budou chodit kontrolovat černochy, přestože nedělají nic nelegálního. A je tu etický problém, na který musím upozornit. Proto se v takovém případě ptám: Popište mi, jak jste trénovali neuronovou síť. Jaké jste použili technologie…

Ondřej Čech, náš zástupce, který s dalšími vědci z evropských zemí hlídá, aby výzkumy spojené s umělou inteligencí financované Evropskou unií neprobíhaly neeticky. -

Zní to, jako že k takové práci člověk – kromě rozsáhlých a odborných znalostí – musí mít také určitý typ fantazie.

Dostali jsme metodické pokyny, kde jsou vyjmenované nějaké příklady, například zmiňované zaručení důstojnosti lidem v nemocnici, když se o ně stará robot. Nebo když má firma data, musíme zajistit, aby byla bezpečná. Co už však v pokynech není, jsou takzvané emerging technologies. Třeba adversarial machine learning (Pozn. red.: Přístup ke strojovému učení, který může počítačové neuronové sítě napadat, takže nedokážou správně posoudit vstupy či vyvozují nesprávné závěry.

Lze jej ale použít také naopak na trénování neuronových sítí, které pak získají odolnost vůči takovému napadání.), kterému se hodně věnuji, je staré čtyři roky. Ani ti, kteří projekty píší, třeba nevědí, že něco takového existuje. Takže ta schopnost je dvojí – musím znát ty nejnovější technologie a technologie jako takové. A druhá část je fantazie, kdy je důležité být v kůži člověka a přemýšlet, zda by mi daná situace byla příjemná. Třeba právě černochem, kterého sebrala policie. Za sebe vlastně projekty hodně čtu jako magazín o tom, co nového se děje.

Související článek

Umělá inteligence by mohla zabránit útoku v Praze

Proč tak dlouho trvalo pátrání po násilnících, kteří za bílého dne zmlátili číšníka v centru Prahy prošpikovaném kamerami? Jak zařídit, aby samořiditelná auta nebourala? A kde už za sedm let budou autonomní vozy běžnou součástí provozu?

Ve skupině řešíte projekty, které požadují evropské peníze. Vztahuje se dohled na etiku i soukromého sektoru?

Jako příklad uvedu automobilku Peugeot, která před dvaceti lety vyvinula auto, které nebylo bezpečné. Při nehodách v něm lidé umírali pětkrát častěji než v jiných vozech. Ale testy to neodhalily, protože vlastnosti auta byly připravené tak, aby testy tuto chybu neodhalily. Vývojář auta to má složité – buď dosáhne v korporaci předepsaných ukazatelů výkonnosti a svou práci odvede dobře, tedy výhodně pro korporaci, ovšem za cenu toho, že budou umírat lidé. Ale koncern to neodhalí. Nebo může říct, aby celý projekt, na kterém se dělalo několik let, koncern zahodil a začal se vyvíjet od nuly. To bude stát spoustu peněz a zapříčiní spoustu problémů. Mnohým firmám podle mě jednoduše chybí schopnost transparentně komunikovat problémy napříč strukturami, aby se lidi nebáli o problémech mluvit. Právě v Peugeotu bylo jasné, že se lidé báli.

Nebo když nastala ekonomická krize, přišlo se na to, že existovali zaměstnanci, kteří věděli, co se stane, ale báli se to říct svým nadřízeným. Ve svém vidění světa by mohli ublížit firmě. A já se bojím, že v některých softwarových firmách je to podobné. Můžou vyvinout nějaký systém strojového učení a udělají při něm chybu. Nebo zapomenou na skutečnost, že by řešení mohlo mít dopad na určitou skupinu lidí, řekněme podle pohlaví.

Související článek

Orwell živě: Peking spustí systém bodování občanů podle „osobní důvěryhodnosti“

O zavádění takzvaného sociálního kreditu v Číně se hovoří už dlouho. V posledních dnech ale v tomto projektu nastal výrazný posun. Pekingská radnice ohlásila, že bodový systém zavede pro obyvatele hlavního města a okolí od roku 2021.

Obecně, i u soukromých firem se toto v Evropě řeší. Pokud mám systém, který takzvaně skóruje lidi, ať už pro hypotéku, nebo kvůli vyhodnocení nebezpečnosti, musím vysvětlit uživateli, proč k tomu došlo. Tedy na základě jakých faktorů jsem ho zařadil do rizikové skupiny. To je něco, co neuronová síť před pěti roky neuměla. Prostě řekla: „Nějak jsem to udělala, statisticky to vychází,“ Teď už dá dohromady důvody: „Má černé vlasy, udělal toto gesto a dvě sekundy předtím byl slyšet tento zvuk. Takto se obvykle chovají kriminálníci.“ Ukáže na vzory, odkud se to naučila, a řekne důvod. A to už je v pořádku.

Líbí se vám článek? Sdílejte ho:
link odkaz
Reklama