多元化的團隊打造更好的AI。這就是為什么

2020-07-02 12:48:49    來源:新經(jīng)網(wǎng)    作者:馮思韻

人類傾向于做出可疑的決定。我們有偏見,受情緒反應驅動,預測能力差,并且難以一次考慮多個數(shù)據(jù)點。這使人工智能具有超越人類的決策優(yōu)勢,不僅可以使我們變得更聰明,而且可以使我們保持公正。問題是,人工智能從人類行為(借助顯式領域知識的幫助)生成的數(shù)據(jù)中學習,因此模仿了我們的偏見。這就導致了反映我們種族主義,性別歧視和其他偏見的算法。許多組織(“ Diversity.ai”就是一個例子)專注于發(fā)現(xiàn)和消除人為偏見。這項工作是必要的,我贊揚這種寶貴的努力。

老師幫助學生學習機器人課

消除AI偏見的一種方法是包容性聘用。建立能夠在種族,性別,性取向,年齡,經(jīng)濟狀況等方面實現(xiàn)多樣性的AI團隊。我認為如果這樣做,您將獲得更好的AI,因為您的團隊將更善于發(fā)現(xiàn)偏見,不同的背景將推動更多的創(chuàng)新思維,而更多的多樣化的團隊將提高您在整個企業(yè)范圍內擴展解決方案的能力。

多元化的團隊更擅長避免編程偏見,因為他們擅長預測潛在問題。例如,醫(yī)療保健提供者最近使用了為大型保險公司創(chuàng)建的算法引導急需治療的患者實施能夠為他們提供額外護理的計劃。問題在于,該算法的護理決策基于患者過去尋求醫(yī)療服務的頻率,這有利于獲得更好保險,更多時間,更多金錢等的患者。這一偏愛的患者群體中,白人比例過高。該算法未能為病情較重但時間和金錢較少的患者推薦額外的護理,其中包括大量的黑人患者。這造成了意外的種族分類,其中白人患者比黑人患者獲得更好的護理。我們不知道是哪家公司創(chuàng)造了這項技術,但我想這不是一支多元化的團隊。黑人團隊成員和背景較不富裕的人可能在發(fā)布這種偏見之前就已經(jīng)看到了這種偏見的可能性。

思想的多樣性也推動了創(chuàng)造性思維。2006年,Netflix 宣布參加競賽并向團隊提供了100萬美元的大獎,這可能會為其成功構建出如今著名的推薦引擎原型。獲勝的團隊是BellKor的實用混亂團隊。他們是如何做到的呢?首先,他們與來自150個國家/地區(qū)的20,000個其他團隊進行了多輪比賽。然后,在比賽的后期階段,團隊開始相互融合。獲勝的團隊由三支團隊組成:貝爾科爾,務實理論和BigChaos。準確性,組合模型的能力以及從人類行為中獲得洞察力的能力,對于實現(xiàn)獲勝的原型都是至關重要的,每個團隊都具有這些關鍵優(yōu)勢之一。這清楚地表明,思想的多樣性可以帶來卓越的結果。具有不同背景的團隊成員帶來不同的想法 項目,這將推動卓越的人工智能。

最后,部署和擴展AI不僅需要技術知識。設計直觀界面,與用戶和領導者協(xié)作,交流變更以及對用戶具有同理心的能力是成功擴展AI的關鍵素質。對最終用戶的同理心是諸如培訓,傳達積極影響的潛力等要素的關鍵。各職能部門(IT,數(shù)據(jù)科學,業(yè)務)之間的協(xié)作和溝通對于確保采用AI解決方案也至關重要。研究表明女性可能比男性表現(xiàn)更好這些技能。團隊成員具有情緒智力,無論是女性,男性還是非二進制的,這都是關鍵。至少,開發(fā)AI的團隊應該與采用AI的人相似。一支以白人或男性為主的團隊可能很難與不那么統(tǒng)一的更廣泛的組織建立聯(lián)系。

我們可以而且必須做更多的事情來增強AI開發(fā)中的團隊多樣性。我致力于提高團隊的多樣性,而我的旅程才剛剛開始。當然,我們不能停止雇用各種各樣的人。我們還需要建立一種反種族主義文化,對無意識偏見的意識以及持續(xù)的對話和教育,您應該敦促您的人力資源團隊繼續(xù)努力,如果還沒有的話。我知道很難找到數(shù)據(jù)科學家,而且我并不建議組建這樣的團隊會很容易。但這是值得的投資,即使這意味著您正在培養(yǎng)人才或重新訓練團隊成員的技能。您可能無法下定決心并為下一個AI項目雇用一支多元化的團隊,但是如果您希望您的團隊打造出更聰明,更好,危害更少的AI,則盡一切努力來建立一支多元化的團隊。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時間聯(lián)系我們修改或刪除,多謝。