Má i umělá inteligence předsudky?

0

Umělá inteligence nabývá ve společnosti na stále větším významu. Pomáhá určit, kdo bude zaměstnán, kdo dostane půjčku, a dokonce i jak dlouho stráví odsouzen ve vězení. Rozhodnutí, která běžně dělávali lidé, nyní stále více vykonávají algoritmy. Co když se ale algoritmy mýlí?

Co je kognitivní bias?

Kognitivní bias je systematická chyba v myšlení, která ovlivňuje rozhodnutí a úsudky, které lidé dělají. Lze také říci, že jde o zkratkovité myšlení nebo předsudek. Biasy se často týkají paměti nebo pozornosti. Člověk si prostě nemůže vše pamatovat a vnímat, a proto jsou jeho paměť i pozornost selektivní.

Příkladem kognitivního biasu je například konfirmační bias. Při tomto biasu si nevědomky všímáme informací, které potvrzují náš názor, a ignorujeme vše, co našemu názoru protiřečí. Představte si, že si myslíte, že levorucí lidé jsou kreativnější. Nuže, vždy když potkáte levorukou osobu, která je kreativní, utvrdíte se ve svém názoru. Když ale spatříte pravorukého a kreativního člověka, existenci této kombinace odignorujete.

Umělá inteligence a bias

Mnoho dnešních aplikací umělé inteligence je založených na hlubokém učení. Tyto algoritmy hledají v datech vzorce, které dále aplikují. Motto takové umělé inteligence by mohlo znít: „Najdi vzorec, aplikuj vzorec!“ Tato umělá inteligence se dokáže učit a určitým způsobem i vnímat. A také se dopouští biasů.

V USA se používá v soudním procesu software, který například predikuje pravděpodobnost recidivy u pachatelů. Tato umělá inteligence tedy napovídá, jaké bude další chování souzeného. Ukázalo se, že software zřejmě trpí biasem. A tak černoch a běloch, kteří provedou stejný trestný čin, jsou umělou inteligencí vnímáni odlišně. A stejně odlišně zní i předpověď ohledně jejich budoucího řízení.

Jiným příkladem jsou dokumentované případy, kdy umělá inteligence nepustila Asiaty přes pasovou kontrolu, protože podle ní mají Asiaté zavřené oči a při kontrole systémem přece musíte mít oči otevřené. S užšíma očima software jednoduše nepočítá. V Amazonu zase zjistili, že jejich algoritmus na nábor nových zaměstnanců nemá rád ženy. Ups, další bias.

Zajímá vás, co si umělá inteligence myslí o kryptoměnách? Přečtěte si o našem experimentu! I Čína používá umělou inteligenci během soudních procesů. Jak? Čtěte zde!


Jak se umělá inteligence učí předsudkům?

Za nejčastější vysvětlení chyb v úsudcích umělé inteligence jsou považována data, a to dvěma způsoby. Zaprvé, už samotná data, ze kterých algoritmus vychází a ve kterých hledá vzorce, obsahují bias, respektive reflektují existující předsudky ve společnosti. Ty se umělá inteligence naučí a dále je replikuje. Zadruhé, data nereprezentují realitu, protože je algoritmus nakrmen velkým počtem fotek bílých mužů a malým počtem černých mužů. Je zřejmé, že algoritmus bude následně hůř rozeznávat obličeje černých mužů.

Chyby se dějí i jinde. Když vytváříte algoritmus, má sloužit určitému účelu, například predikovat schopnost splácet úvěr zákazníka. Problémem je, že už samotná tato „schopnost“ je myšlenkovým konstruktem, který musí být přeložen do jazyka algoritmu a musí být nějakým způsobem počitatelný. Atributy, které zvolíte, ovlivní výsledky.

Co číst dál?

AlphaZero od Google – revolúcia v oblasti umelej inteligencie

 

Zdroje:
wired.com
technologyreview.com

ZANECHAT ODPOVĚĎ

Zadejte svůj komentář!
Zde prosím zadejte své jméno