研究突出了不良AI在識別非西非人方面的表現(xiàn)

2020-03-05 14:56:33    來源:    作者:

科羅拉多大學(xué)博爾德大學(xué)進行的一項研究表明,人工智能在識別非同性戀者方面有多么糟糕。

認(rèn)可機構(gòu)在承認(rèn)種族少數(shù)族裔方面令人擔(dān)憂的問題越來越有據(jù)可查,但這項新研究是第一個評估性別分類的研究。

研究突出了不良AI在識別非西非人方面的表現(xiàn)

AI系統(tǒng)根據(jù)人們可以“看到”的東西對他們進行分類,并經(jīng)常使用定型參數(shù)(例如,男性沒有長發(fā),女性沒有胡須)。

性別種類繁多:例如,F(xiàn)acebook 為用戶提供大約71種選擇。也許期望過高,以至于無法期望AI能夠?qū)γ總€人進行準(zhǔn)確分類,但是研究人員發(fā)現(xiàn)有關(guān)可能導(dǎo)致嚴(yán)重困擾的錯誤分類。

從事這項研究的研究員Morgan Klaus Scheuerman確認(rèn)為男性。在下圖中,左邊的Microsoft的AI正確地將他標(biāo)識為男性,而右邊的IBM的AI將其標(biāo)識為女性:

舒爾曼說,在測試自己的照片時,盡管被確定為“規(guī)范性”性別,但他仍被錯誤分類了一半左右。

研究突出了不良AI在識別非西非人方面的表現(xiàn)

只要分類大致正確,就不會造成太多困擾。但是,想象一下一個人花了多年的時間覺得自己是錯誤的性別,在過渡期間可能面臨欺凌和騷擾,甚至進行過手術(shù)和/或激素治療,然后AI將其歸類為出生時的性別。

Scheuerman和他的團隊測試了10種現(xiàn)有的面部分析和圖像標(biāo)記服務(wù)。如您所見,目前大多數(shù)服務(wù)都堅持嘗試確定順式性別:

平均而言,面部分析系統(tǒng)在順性別女性的圖像上表現(xiàn)最佳,而在變性男性的圖像上表現(xiàn)最差。

以下是將性別分類時每個服務(wù)的結(jié)果:

時尚潮流隨著時間而發(fā)展。發(fā)型尤其要經(jīng)歷多個階段。男性在某些時期選擇了長發(fā)(比如懷特斯納克(Whitesnake),古恩斯玫瑰(Guns Rose)和航空史密斯(Aerosmith)等70年代/ 80年代樂隊),而如今,有像露絲·貝爾(Ruth Bell)這樣的成功女性模特兒也喜歡與男性聯(lián)系在一起。

研究突出了不良AI在識別非西非人方面的表現(xiàn)

在十年左右的時間里,男性甚至可能會刮胡子,而女性則會留胡子。如今,接受過圖像訓(xùn)練的AI會努力適應(yīng)和分類這種變化,這又帶來了另一個問題。

通常有很多問題,沒有解決方案,但確實有。通過社會歧視和不平等等因素,像LGBT這樣的社區(qū)已經(jīng)面臨精神健康不良的高風(fēng)險。使這些問題自動化將產(chǎn)生災(zāi)難性的后果。

鄭重聲明:本文版權(quán)歸原作者所有,轉(zhuǎn)載文章僅為傳播更多信息之目的,如作者信息標(biāo)記有誤,請第一時間聯(lián)系我們修改或刪除,多謝。