人工智能與傳播中的性別偏見的延續(xù)

2020-05-12 15:19:46    來源:新經(jīng)網(wǎng)    作者:馮思韻

上周我參加了一個網(wǎng)絡(luò)研討會。它描述了Amazon AWS正在推出的新企業(yè)搜索工具。產(chǎn)品名稱?肯德拉。這表明有必要再次討論嚴(yán)重的性別偏見問題。這并不是純粹對亞馬遜的打擊,而是對我們整個行業(yè)的打擊。從數(shù)字助理到聊天等等的人工智能工具正在造成一個應(yīng)糾正的問題。

人工智能與傳播中的性別偏見的延續(xù)

Siri,Alexa,Cortana等都使用女性背景和聲音。例如,雖然Cortana這個名字聽起來并不像是女性,但這個名字來自Halo游戲中的女性角色。

問題也不僅僅局限于數(shù)字助理。一個由聯(lián)合國教科文組織報告的問題,去年,介紹了性別偏見,隱式和顯式的,技術(shù)內(nèi)。然而,主要部分集中在數(shù)字助理上。然而,挑戰(zhàn)也擴(kuò)展到了聊天機(jī)器人。正如報告中另外指出的那樣,“盡管如此,新方向不應(yīng)掩蓋現(xiàn)狀。聊天機(jī)器人通常仍被編程為女性。據(jù)VentureBeat估計,僅在2016年就引入了30,000個聊天機(jī)器人,其中絕大多數(shù)具有女性角色。”

同時,現(xiàn)在偏見的經(jīng)典例子是亞馬遜取消的人力資源系統(tǒng),該系統(tǒng)基于有關(guān)公司先前雇用的人員的培訓(xùn)數(shù)據(jù)而存在性別偏見。我應(yīng)該指出,我不選擇亞馬遜。該公司足夠大,可以輕松找到信息,但是我敢肯定,該行業(yè)中的許多其他公司也存在類似的問題。

技術(shù)人員的決定不僅限于純技術(shù)公司。例如,美國銀行的助手是埃里卡(Erica)。Parmy Olsen 在此站點的另一篇文章中列出了許多其他銀行業(yè)務(wù)應(yīng)用程序。

性別偏見的一個借口是,公司聲稱人們對陳規(guī)定型觀念感到滿意。但是他們并不根深蒂固。正如聯(lián)合國教科文組織的報告所示,公司確實根據(jù)對不同國家的未披露分析做出一些決策。例如,“有趣的是,當(dāng)用戶選擇阿拉伯語,英語,英語,荷蘭語或法語作為語言選項時,默認(rèn)情況下,Siri是男性,這表明性別的意圖不僅僅在于人們普遍偏愛女性聲音。”

公司的存在是為了牟利,因此毫不奇怪,他們創(chuàng)造了他們認(rèn)為會吸引并留住客戶的AI“聲音”(包括文字和音頻)。但是,公司也應(yīng)被視為“良好的企業(yè)公民”。應(yīng)該顯示的一種方法是在安裝和常規(guī)操作期間提供簡單的選項,供客戶選擇用于AI通信的多種聲音。這也意味著名字不應(yīng)該像今天這樣被自動賦予女性。

在大多數(shù)社會中,性別偏見是一個嚴(yán)重的問題。在高科技領(lǐng)域,這是一個更大的問題。然而,我們的部門也聲稱擁有解決這些偏見的能力和技能。聊天機(jī)器人,數(shù)字助理和其他計算機(jī)通信方式已經(jīng)過時了,無法開始支持這一主張了。

鄭重聲明:本文版權(quán)歸原作者所有,轉(zhuǎn)載文章僅為傳播更多信息之目的,如作者信息標(biāo)記有誤,請第一時間聯(lián)系我們修改或刪除,多謝。