Předpojaté boty: Lidské předsudky se proplétají do systémů umělé inteligence

Why you think you're right -- even if you're wrong | Julia Galef (Červen 2019).

Anonim

Při debatách o budoucnosti umělé inteligence se mnozí odborníci domnívají, že nové systémy jsou chladně logické a objektivně racionální. Ale v nové studii výzkumníci ukázali, jak mohou být stroje odrazem nás, tvůrců, potenciálně problematicky. Společné programy strojového učení, je-li vyškoleno běžným lidským jazykem dostupným online, může získat kulturní předsudky zakotvené ve vzorech formulace, zjistili výzkumníci. Tyto předsudky se pohybují od morálně neutrálního, jako je přednost květin nad hmyzem, k nevhodným pohledům na rasu a pohlaví.

Identifikace a řešení možného zkreslení v strojovém učení bude kriticky důležitá, protože se stále častěji obracíme na počítače, které zpracovávají přirozený jazyk, který lidé komunikují, například při vyhledávání textových textů online, kategorizaci obrázků a automatizovaných překladů.

"Otázky týkající se spravedlnosti a předpojatosti při strojovém učení jsou pro naši společnost nesmírně důležité, " uvedl výzkumný pracovník Arvind Narayanan, odborný asistent počítačové vědy a člen profesní komise Centra pro politiku informačních technologií (CITP) na Princetonské univerzitě. přidružený vědecký pracovník Centra pro internet a společnost Stanford Law School. "Máme situaci, kdy tyto systémy umělé inteligence mohou zachovat historické vzorce zaujatosti, které bychom mohli považovat za společensky nepřijatelné a které bychom se možná pokoušeli odklonit."

Článek "Sémantika odvozená automaticky z jazykových korpusů obsahují lidské předpojatosti", publikovaná 14. dubna ve Vědě. Jeho hlavním autorem je Aylin Caliskan, postdoctorální výzkumný pracovník a spolupracovník CITP v Princetonu; Joanna Brysonová, čtenářka na univerzitě v Bathu a přidružená společnost CITP, je spoluautorkou.

Jako prubířský kámen pro zdokumentované lidské předsudky se studie obrátila na Implicitní asociační test, který se používá v mnoha studiích sociální psychologie od jeho vývoje na univerzitě ve Washingtonu koncem 90. let. Testy měří doby odezvy (v milisekundách) lidských subjektů, které požadují spárovat koncepty slov zobrazené na obrazovce počítače. Doby odezvy jsou mnohem kratší, implicitní asociační test opakovaně ukázal, když jsou subjekty požádáni o spárování dvou konceptů, které shledávají podobnými, oproti dvěma koncepcím, které považují za odlišné.

Vezměte si typy květů, jako "růže" a "sedmikráska", a hmyz jako "mravenec" a "můra". Tato slova mohou být spárována s příjemnými koncepty, jako "pohlazení" a "láska" nebo nepříjemné pojmy jako "špína" a "ošklivá". Lidé rychleji spojují květinová slova s ​​příjemnými koncepty a výrazy pro hmyz s nepříjemnými nápady.

Princetonský tým navrhl experiment s programem, ve kterém pracoval v podstatě jako strojová učební verze testu Implicit Association. Jmenoval GloVe a vyvinul výzkumníci Stanfordské univerzity, populární, otevřený zdrojový program je takový, jaký by společnost spouštěcího strojového učení mohla používat v srdci svého produktu. GloVe algoritmus může reprezentovat statistiku společných výskytů slov, například 10-slovo textového okna. Slova, která se často objevují blízko sebe, mají silnější asociaci než ta slova, která zřídka dělají.

Stanfordští vědci ztratili GloVe na obrovském okruhu obsahu z World Wide Web, který obsahoval 840 miliard slov. V tomto velkém vzorku psané lidské kultury Narayanan a jeho kolegové pak zkoumali soubory tzv. Cílových slov, jako "programátor, inženýr, vědecký pracovník" a "sestra, učitel, knihovník" vedle dvou sad atributových slov, jako " mužský "a" ženský, ženský ", hledající důkaz toho, jaký druh předpojatosti mohou lidé bezděčně mít.

Ve výsledcích se objevily nevinné, neškodné předsudky, jako například kvůli kvůli chybám, ale ukázaly se také příklady podle pohlaví a rasy. Jak se ukázalo, Princetonský strojový učební experiment se podařilo replikovat široké zdůvodnění vychýlení, které se objevilo ve vybraných studiích implicitních asociačních testů v letech, které se spoléhaly na živé lidské subjekty.

Například strojový učební program sdružený se ženami se jmenuje více s rodinnými atributovými slovy, jako "rodiče" a "svatba", než jména mužů. Naopak, jména mužů měly silnější asociace s atributy kariéry, jako "profesionální" a "plat". Samozřejmě takové výsledky jsou často jen objektivní úvahy o skutečné nerovnoměrné distribuci typů povolání s ohledem na pohlaví, například podle toho, jak 77 procent počítačových programátorů je mužské, podle amerického úřadu statistiky práce.

Toto správně odlišené zaujatost ohledně povolání však může mít zhoubné, sexistické účinky. Příklad: když cizí jazyky jsou naivně zpracovávány programy strojového učení, což vede k genderově stereotypním větám. Turecký jazyk používá genderově neutrální, závislost třetí osoby, "o." Připojen k dobře známé službě překladů Google Translate, nicméně turecké rozsudky "o bir doktor" a "o bir hem? Ire" s tímto genderově neutrálním zájmem jsou přeloženy do angličtiny jako "on je doktor" a " ona je sestřička."

"Tento článek opakuje důležitý bod, že metody strojového učení nejsou" objektivní "nebo" nezaujaté "právě proto, že se spoléhají na matematiku a algoritmy, " uvedla Hanna Wallach, vedoucí výzkumná pracovnice společnosti Microsoft Research New York City. studie. "Spíše, pokud jsou vyškoleni s použitím dat ze společnosti a pokud společnost vykazuje předsudky, tyto metody pravděpodobně reprodukují tyto předsudky."

Dalším nevhodným příkladem je opět známý článek z roku 2004, kterou napsala Marianne Bertrandová z University of Chicago Booth School of Business a Sendhil Mullainathan z Harvardské univerzity. Ekonomové poslali zhruba 5 000 shodných životopisů na 1 300 inzerátů, které změnily pouze názvy žadatelů na tradičně evropské americké nebo africké americké. Bývalá skupina měla o 50 procent vyšší pravděpodobnost, že jí bude nabídnut rozhovor, než druhý. Ve zdánlivém potvrzení této zaujatosti ukázala nová Princetonova studie, že soubor afro-amerických jmen má více nežádoucích asociací než evropský americký soubor.

Počítačové programátoři by mohli doufat, že zabrání tomu, aby docházelo ke stárnutí kulturních stereotypů prostřednictvím vývoje explicitních instrukcí založených na matematice pro programy strojového učení, které jsou základem systémů AI. Nehledě na to, jak se rodiče a učitelé snažili vštípit koncepty spravedlnosti a rovnosti u dětí a studentů, by se kodeři snažili, aby stroje odrážely lepší anděly lidské povahy.

"Předsudky, které jsme studovali ve studii, lze snadno přehlédnout, když návrháři vytvářejí systémy, " řekl Narayanan. "Předsudky a stereotypy v naší společnosti, které se odrážejí v našem jazyce, jsou složité a dlouhodobé. Spíše než snažit se o jejich sanaci či odstranění, měli bychom považovat předsudky za součást jazyka a stanovit explicitní způsob, jak se strojní učení rozhodnout, co považujeme za přijatelné a nepřijatelný."

menu
menu