人工智能系統(tǒng)中的偏差可能導(dǎo)致意想不到的后果

2020-03-17 14:18:40    來(lái)源:    作者:

Alexa。Siri。Cortana。這些虛擬數(shù)字助理已成為我們?nèi)粘I畹囊徊糠?,除了功能上的相似之處外,它們還有一個(gè)共同的重要特征:它們都被編碼為女性。

人工智能系統(tǒng)中的偏差可能導(dǎo)致意想不到的后果

如果您從未考慮過(guò)為什么所有這些AI幫助者都是女性,那么您并不孤單。LivePerson是一個(gè)基于云的客戶服務(wù)消息傳遞解決方案,它對(duì) 1,000名美國(guó)成年人進(jìn)行了一項(xiàng)調(diào)查,以確定他們對(duì)AI的看法以及技術(shù)領(lǐng)域的性別差距。在回答一個(gè)問(wèn)題時(shí),“ Alexa,Siri和Google助手默認(rèn)為女性。您是否考慮過(guò)這個(gè)事實(shí)?” 總體而言,有53.2%的人表示沒(méi)有。

LivePerson首席執(zhí)行官Rob LoCascio說(shuō):“與其他技術(shù)不同,“使用AI,您正在創(chuàng)建要與其他人互動(dòng)的東西,或者您正在使用它來(lái)補(bǔ)充人類(lèi)活動(dòng),做出決策和建議。” “因此,我們不得不問(wèn)為什么?為什么我們將這些“幫助者”技術(shù)性別化為女性?這對(duì)我們對(duì)世界上和工作場(chǎng)所中的女性的期望有何看法?女性天生就是“幫助者”;他們是“ na”;他們扮演行政角色;他們擅長(zhǎng)接訂單嗎?”

人工智能系統(tǒng)中的偏差可能導(dǎo)致意想不到的后果

當(dāng)然,不僅僅是數(shù)字助理有偏見(jiàn)問(wèn)題。正如彭博社報(bào)道的那樣,研究人員已經(jīng)開(kāi)始注意到AI系統(tǒng)重復(fù)并擴(kuò)大其創(chuàng)作者偏見(jiàn)的趨勢(shì)。

“公司,政府機(jī)構(gòu)和醫(yī)院越來(lái)越多地使用機(jī)器學(xué)習(xí),圖像識(shí)別和其他AI工具來(lái)幫助預(yù)測(cè)一切,從貸款申請(qǐng)人的信譽(yù)度到癌癥患者的首選治療。這些工具有很大的盲點(diǎn),尤其對(duì)婦女和少數(shù)民族有影響。”該文章說(shuō)。

人工智能系統(tǒng)中的偏差可能導(dǎo)致意想不到的后果

例如,在招聘和雇用中,人工智能通常用于確定理想職位的候選人。但是,如果放任自流,AI可能會(huì)使IT等領(lǐng)域的多樣性問(wèn)題更加嚴(yán)重,因?yàn)镮T領(lǐng)域已經(jīng)嚴(yán)重缺乏女性和代表性不足的少數(shù)民族。

鄭重聲明:本文版權(quán)歸原作者所有,轉(zhuǎn)載文章僅為傳播更多信息之目的,如作者信息標(biāo)記有誤,請(qǐng)第一時(shí)間聯(lián)系我們修改或刪除,多謝。