foto: iStockphoto.com

Rasistická umělá inteligence? AI dělá jen to, co ji sami naučíme, říká izraelský expert

Věci chytřerozhovor 7 a více min čtení

I když třeba jen brouzdáme po internetu, dostáváme se do hledáčku umělé inteligence. Měli bychom se proto zajímat o její chování, říká Uri Eliabayev. Je členem izraelské komise pro AI, velkým zastáncem strojového přemýšlení a věří, že se brzy umělá inteligence rozšíří prakticky do všech služeb. Zároveň hlásá, že si počítače musí udržet etické principy.

Líbí se vám článek? Sdílejte ho:

I když třeba jen brouzdáme po internetu, dostáváme se do hledáčku umělé inteligence. Měli bychom se proto zajímat o její chování, říká Uri Eliabayev. Je členem izraelské komise pro AI, velkým zastáncem strojového přemýšlení a věří, že se brzy umělá inteligence rozšíří prakticky do všech služeb. Zároveň hlásá, že si počítače musí udržet etické principy.

Související článek

Umělá inteligence nahrazuje pracovníky ve financích, do deseti let vezme práci 9 procentům z nich

Umělá inteligence nahradí do roku 2030 téměř 9 procent všech pracovních míst ve finanční sféře, zatímco ve fintechových společnostech se očekává, že díky AI rozšíří svou pracovní sílu o 19 procent. Vyplývá to ze studie EY mezi poskytovateli finančních a IT služeb ve 33 zemích. Respondenti průzkumu odhadují, že ubude 336.000 pracovních míst ve finančních institucích a přibude 37.000 míst ve fintechových společnostech.

Není náhoda, že právě Izrael je průkopníkem v oblasti umělé inteligence. Je to národ, který je známý svými inovacemi, rychle rostoucími startupy i rozšiřujícím se digitálním prostředím. A právě Uri Eliabayev je odborníkem, který oblast umělé inteligence konzultuje, zavádí do firem, ale i doslova buduje tamní komunitu. Vytvořil skupinu lidí zaměřenou na strojové učení, která sdružuje přes 10 tisíc členů. S dalšími odborníky tamní vládě nedávno předal report o umělé inteligenci a doufá, že na jeho základě stát možná otevře úřad nebo nějaký druh organizace, která by na tuto otázku v zemi dohlížela.

„Téměř všechno, co na internetu děláme, je založeno na umělé inteligenci. Normální člověk si toho samozřejmě není vědom. Ale bude jí všude stále víc. Musíme si tak být jisti, že neuškodí nám a ani těm, kteří netuší, že se s ní setkávají,” říká Uri Eliabayev.

Původně jsme si měli povídat naživo během akce Machine Learning Prague, kam se chystala špička odborníků v oblasti strojového učení. Místo toho jsme se teď spojili přes videohovor uprostřed veškerých omezení, kterými obě země procházejí.

Na Machine Learning jste měl mluvit o etických aspektech umělé inteligence. Proč je vlastně máme brát v úvahu?

Především proto, že v příštích letech už umělá inteligence bude nedílnou součástí našich životů. Bude naší prodlouženou rukou. Doktoři, soudci, policie, vlády, banky… všichni ji budou používat. A proto bychom měli obrátit svou pozornost k tomu, aby všechna rozhodnutí, která necháváme na strojích, byla založena na silných etických základech.

Uri Eliabayev -

Nové technologie vyvíjíme rychle. Mnohdy inženýři však dostatečně nemyslí na veškeré důsledky toho, co technologiemi způsobí. Proto je důležité zdůrazňovat jejich etické aspekty, abychom nevytvořili něco, co nemáme pod kontrolou, nebo o čem nevíme, jak bude jednat. A můžeme tím vlastně pomoct mnoha lidem, aniž bychom o tom věděli.

Co je podle vás nejproblematičtější částí etiky AI?

Předpojatost či dalo by se říct strojové předsudky plynoucí z dat. Například když chcete vytvořit umělou inteligenci, která bude rozhodovat o tom, komu poskytnout půjčku. Nebo předpovídat, kdo bude potřebovat jaký druh lékařské péče. Pokud nejsou data kvalitní a už od začátku obsahují zadané předsudky, můžete vytvořit rasistickou, šovinistickou nebo jinak pokřivenou umělou inteligenci. To už se dnes bohužel děje.

Související článek

Najdi vadu přesně a rychle. Česká umělá inteligence začíná dohlížet na konec výrobní linky

V nošovické automobilce Hyundai pracuje na výrobě aut vedle 3 300 lidí pětistovka robotů. Poslední v řadě byl až doposud člověk. Celou směnu dohlížel na výrobky, které sjížděly z pásu. Spolehlivost takového pracovníka se ale pohybovala mezi 70 a 80 procenty. Každá chyba je drahá. Právě tady se proto začala uplatňovat umělá inteligence, která se prý nesplete.

Umělá inteligence funguje jako zrcadlo toho, co si myslí lidé. A to opravdu nechcete. Příkladů pro to je mnoho. Úplně jednoduše si to můžeme ukázat třeba u překladače Google. Ještě nedávno, když překládal z turečtiny do angličtiny, byly všechny ceněné práce uvedeny v mužském rodě, a ty z nízkých pozic společenského žebříčku naopak v ženském. Turečtina totiž rod on/ona v některých větách nerozlišuje. Takže výsledkem byla sdělení typu “On je doktor, je chytrý, je pracovitý.” A naproti tomu “Ona je sestra, je líná, je nešťastná.” A to je jen jeden z mnoha příkladů, které se objevují prakticky všude. Tak třeba jedna inženýrka vyvinula aplikaci na rozpoznávání obličejů, nicméně hned zjistila, že konkrétně na ní vůbec nefunguje. Pídila se, v čem je problém, až zjistila, že její tvář systém ignoruje. Protože je černoška.

A to je hlavní problém. Data a modely, na kterých se inteligence trénuje, obsahují velké nedostatky. A jako zrcadlo nám ukazují vše, co je na našem chování špatné.

Co s tím ale můžeme dělat? A vědí to vůbec programátoři, kteří sice umí vytvořit umělou inteligenci, ale etikou se dosud nezabývali?

Pár věcí se dělat dá. Je třeba se ujistit, že data jsou vyvážená. To je první krok a je třeba to kontrolovat stále. Třeba v Googlu mají týmy, které řeší jen to, jestli jejich algoritmy nevycházejí z nějak zatížených dat. Taky se snaží zahrnout co největší množství dat, jaké je jen možné.

Například pracují na algoritmu, který rozezná obrázky, na kterých jsou svatby. Mají spoustu fotek z klasických “západních” svateb, ale chtějí vytvořit model relevantní pro veškeré lidstvo. Tak žádají všechny lidi o zasílání jejich svatebních fotografií, aby tak mohli vytvořit algoritmy toho, jak svatby vypadají v různých částech světa.

Související článek

Umělá inteligence objevila nové účinné antibiotikum

Tým vědců z Massachusettského technologického institutu (MIT) objevil díky umělé inteligenci nové vysoce účinné antibiotikum. Nový lék nejenže zabírá proti řadě velice rezistentních bakterií, ale činí tak i novým způsobem.

Problém však je, že něco takového lidi obvykle ani nenapadne – nevědí, že je vůbec třeba podobné problémy řešit. Důležité je proto mít různorodý tým. Obvykle, když se mluví o diverzitě v týmu, lidi přemýšlejí způsobem, že je pěkné mít víc černochů, Asiatů, žen… Ale tady nejde o nějaké kvóty. Jakmile máte různé lidi v týmu, vidí kulturně podmíněné chyby. Tak, jako když vývojářka jen tak zkoušela, jestli algoritmus na rozpoznávání tváře najde tu její. Kdyby to nezkusila, nikdy by nikdo nezjistil, že na černochy nefunguje. Diverzita je superdůležitá.

Techničtí pracovníci jsou si toho vědomi, ale je to prostě jedno z témat, které jen tak pluje ve vzduchu. Ví se to a hodně se o tom mluví. Ale nejsem si jistý, jak se to – minimálně v těch menších společnostech – opravdu na dennodenní bázi řeší.

Zmínil jste, že je třeba mít diverzitu v týmu, ale po celém světě IT týmy nejsou příliš rozmanité. Je složité to vyřešit i proto, že je tento etický problém spojen s dalším, komplexnějším?

Bariéra vstupu do odvětví je skutečně velmi těžko propustná. Je z velké části akademická. Potřebujete například znát velmi pokročilou matematiku, a ač by bylo dobré nabírat hodně lidí a trénovat výzkumníky, není to jednoduché. Ale nemusíte být specializovaní IT odborníci, abyste mohli proti problému bojovat.

Je vždy potřeba pracovat se vstupními daty – všichni, kdo označují a popisují obrázky, nebo třeba rozebírají věty či jinak data klasifikují, se procesu účastní. Nebo ti, kteří kontrolují produkt na konci a řeší jeho kvalitu. Možná je náročné vytvořit různorodost v samotném výzkumném týmu, ale všechny ostatní fáze a procesy, kterými musí produkt či služba projít, už můžou tu diverzitu obsahovat.

Související článek

Umělá inteligence hodnotí genderovou vyváženost filmů, předpoví i jejich úspěch u diváků

Hlavní město filmového průmyslu, továrna na sny… a na peníze. To je Hollywood. Málokoho asi překvapí, že filmoví producenti hledají nové a nové cesty, jak zaujmout diváky a zvýšit zisky filmových trháků. Jedním ze způsobů, jak toho dosáhnout, je využít služeb umělé inteligence. Filmaři teď používají software, který dokáže úspěch filmu předpovědět. Znamená to, že herce do filmů bude obsazovat místo režiséra umělá inteligence?

Zmínil jste, jak se Google snaží vytvářet férovější algoritmy. Myslíte, že bychom měli hledat férovější přístupy právě v nich?

Právě to, co označujeme za férovost, je teď velké téma. Algoritmy budou dělat hodně práce za člověka, nebo lidem alespoň značně pomáhat. A musíme si být jistí, že jsou dost férové. Jinak vše špatné, co teď “funguje” v naší společnosti, ještě víc zintenzivní. Takže tohle téma je podle mě ohromně důležité.

Právě kolem tohoto se točil jeden z velkých skandálů společnosti Apple, která víc než před rokem nabízela lidem kreditky s tím, že ženy k nim získávaly mnohem horší podmínky. Například pokud manželé poslali stejné informace o svých totožných účtech, žena spadla do horší kategorie pro úvěr.

Můžu s tím já jako uživatel – ne jako IT specialista – něco udělat? Jsme si jako uživatelé vůbec vědomi těchto problémů?

Jako uživatel jen těžko uvidíte celý obrázek. A právě proto je tolik důležité, aby se snažili tvůrci. Jsem si jistý, že třeba Google není šovinistický, a přesto u něj prošly překlady z turečtiny v šovinistické verzi. Je to jako snažit se porozumět lidské mysli. Dokonce i pro developery je těžké porozumět takto naprogramované předpojatosti a dovtípit se, o co jde.

Jako uživatel se prostě snažte mít otevřené oči a vnímat. Například pokud sledujete YouTube a umělá inteligence vám navrhuje témata, která oslovují vaši etnicitu nebo pohlaví. Pokud na YouTube vidíte jen reklamy jednoznačně určené pro ženy, a manžel nebo kamarád naopak nabídky kurzů a vzdělávání, pak je to něco, co byste měli vnímat. Není přitom samo o sobě špatné to, že umělá inteligence bere pohlaví jako jednu z definic pro určení toho, co je pro mě relevantní. Ale nemůže osekat vše ostatní.

Jaké jsou další, třeba méně známé temné strany strojového učení?

Některé společnosti říkají, že pracují na algoritmech, které mají podle tváře určit, jestli spácháte zločin. A to je něco, co vyvolává hodně kritiky. Vychází to velmi rasisticky. Nebo se snaží odhadnout, jestli jste homosexuální. Samozřejmě něco takového na základě tváře říct nelze, a přesto těchto příkladů vidíme spoustu.

Související článek

Video: Umělá inteligence vylepšila slavný film bratrů Lumiérů z roku 1895

Příjezd vlaku do stanice La Ciotat je jeden z nejslavnějších filmů kinematografie, ačkoliv má jen padesát sekund a je němý. Produkce bratrů Lumièrů ho natočila v roce 1895. Době vzniku tak odpovídá i kvalita záznamu. Originál ale nyní prošel vylepšením umělé inteligence.

Problematické taky je, že pokud máte o lidech hodně dat, můžete jejich chování nasměrovat. Tak třeba YouTube vám nabízí videa, která si máte pustit. No a tu nabídku, jak už jsem zmínil, upravuje podle toho, co o vás ví. Takže si pravděpodobně pustíte víc videí, a tedy i zhlédnete víc reklam. A to je trochu problematické, protože AI umí analyzovat vaše základní chování a v zásadě vám říct, co chcete. Mnoho společností se vám dostává do hlavy a získává to, co chce, tím, že využívá umělou inteligenci.

To zní, jako bychom se měli opravdu bát…

To si nemyslím. Roboti ani Skynet určitě nepřeberou kontrolu nad lidstvem. Umělá inteligence ve skutečnosti vůbec není silná. Umí perfektně jen jeden úkol, ale nic dalšího. Ohromně pokročilé algoritmy opravdu kdykoliv vyhrají šachy nebo vás porazí v jakékoliv jiné hře, na kterou jsou trénované. Ale když se tohoto algoritmu zeptáte, jaký před sebou má obrázek, tak nebude vůbec umět odpovědět, jestli jde třeba o kočku, nebo parník.

Stále hledáme obecnou umělou inteligenci, kterou lidstvo potřebuje. Než ale nějakou takovou najdeme, bude to ještě dlouho trvat. Ještě jsme se ani nepřiblížili na dohled. Nemáme ani auto, které by bylo opravdu stoprocentně samořiditelné. A potrvá, než uvidíme roboty, kteří na nás míří pistolí.

Líbí se vám článek? Sdílejte ho:
link odkaz
Reklama