算法顯示種族偏見后,Twitter有更多分析要做

2020-09-21 11:52:29    來源:新經(jīng)網(wǎng)    作者:艾靜

算法顯示種族偏見后,Twitter有更多分析要做

Twitter正在第一手了解消除算法中種族偏見的挑戰(zhàn)。社交網(wǎng)絡(luò)的Liz Kelley表示,在密碼工程師Tony Arcieri進(jìn)行了一項(xiàng)實(shí)驗(yàn),表明Twitter的算法在對(duì)照片進(jìn)行優(yōu)先級(jí)排序方面存在偏見之后,該公司還有“更多分析”要做。當(dāng)將Barack Obama和Mitch McConnell的照片附加到推文上時(shí),Twitter似乎專門突出了McConnell的臉-奧巴馬僅在Arcieri顛倒顏色時(shí)彈出,從而使膚色不成問題。

算法顯示種族偏見后,Twitter有更多分析要做

其他人則嘗試顛倒照片和名字順序,但無濟(jì)于事。Intertheory的Kim Sherrell發(fā)現(xiàn),高對(duì)比度的微笑確實(shí)有效。同時(shí),科學(xué)家Matt Blaze注意到,優(yōu)先級(jí)似乎因所使用的官方Twitter應(yīng)用程序而異。例如,Tweetdeck更為中立。

凱利說,Twitter在使用當(dāng)前算法之前已經(jīng)檢查過偏差,但是當(dāng)時(shí)“找不到證據(jù)”。她補(bǔ)充說,Twitter將開源其算法研究,以幫助其他人“審查和復(fù)制”。

不能保證Twitter可以糾正此問題。但是,實(shí)驗(yàn)確實(shí)顯示了算法偏向的真正危險(xiǎn),無論其意圖如何。即使他們是社交媒體帖子或鏈接的新聞文章的中心,它也可能使人們脫穎而出。您可能需要等待很長(zhǎng)時(shí)間,這樣的問題才會(huì)非常罕見。

鄭重聲明:本文版權(quán)歸原作者所有,轉(zhuǎn)載文章僅為傳播更多信息之目的,如作者信息標(biāo)記有誤,請(qǐng)第一時(shí)間聯(lián)系我們修改或刪除,多謝。