你能相信AI嗎?您是否應(yīng)毫無(wú)疑問(wèn)地接受其調(diào)查結(jié)果為客觀有效?問(wèn)題是即使質(zhì)疑AI本身也不會(huì)產(chǎn)生明確的答案。
AI系統(tǒng)通常像黑匣子一樣操作:輸入數(shù)據(jù),輸出數(shù)據(jù),但轉(zhuǎn)換數(shù)據(jù)的過(guò)程是個(gè)謎。這造成了雙重問(wèn)題。一個(gè)是不清楚哪種算法的性能最可靠。另一個(gè)是看似客觀的結(jié)果可能會(huì)被編程系統(tǒng)的人的價(jià)值觀和偏見(jiàn)所扭曲。這就是為什么需要透明的系統(tǒng)使用的虛擬思維過(guò)程,或“可解釋的AI”。
對(duì)于受GDPR管轄的任何人來(lái)說(shuō),道德要求已經(jīng)成為合法的,這不僅會(huì)影響歐盟的企業(yè),也會(huì)影響與那里的人或組織打交道的企業(yè)。它包含了一些關(guān)于數(shù)據(jù)保護(hù)的規(guī)定,這些規(guī)定擴(kuò)展到歐盟公民“不受單獨(dú)自動(dòng)決策制約的權(quán)利,但在某些情況下除外”和“有權(quán)獲得有關(guān)決策所涉邏輯的有意義信息的權(quán)利” “。
換句話說(shuō),僅僅說(shuō)“算法拒絕了你的申請(qǐng)”已經(jīng)不夠了。有一個(gè)法律授權(quán)可以解釋導(dǎo)致結(jié)論對(duì)人們生活產(chǎn)生影響的思路。
有偏見(jiàn)的結(jié)果
一些人對(duì)算法決策提出的一個(gè)擔(dān)憂是,即使在進(jìn)行客觀推理時(shí),他們也可能會(huì)加劇偏見(jiàn)。這就是Cathy O'Neil在“數(shù)學(xué)毀滅武器:大數(shù)據(jù)如何增加不平等和威脅民主”中所提出的論點(diǎn)的關(guān)鍵。與大數(shù)據(jù)相關(guān)的客觀性外觀使其在實(shí)際應(yīng)用中如此有害加強(qiáng)偏見(jiàn)。
她稱之為“數(shù)學(xué)破壞”的是“強(qiáng)化障礙的模型的結(jié)果,通過(guò)將其視為不太值得信用,教育,工作機(jī)會(huì),假釋等等來(lái)阻止特定人口群體處于不利地位”。
她并不是唯一一個(gè)發(fā)現(xiàn)算法偏見(jiàn)的人。2016年,Pro Publica分享了他們的研究結(jié)果,即算法預(yù)測(cè)黑人的再犯率高于白人,這一因素在相同類型的犯罪中被轉(zhuǎn)化為不同的監(jiān)禁。2017年“衛(wèi)報(bào)”文章也將偏見(jiàn)擴(kuò)展到性別。
問(wèn)題是這些系統(tǒng)的編程會(huì)帶來(lái)深遠(yuǎn)的影響。在電話采訪中,Collibra的聯(lián)合創(chuàng)始人兼首席技術(shù)官Stijn Christiaens 解釋說(shuō),AI實(shí)現(xiàn)了“自動(dòng)決策”,每秒可以超過(guò)1萬(wàn)個(gè)決策。
這意味著制定錯(cuò)誤決策的系統(tǒng)將比任何人都更快地制造更多的系統(tǒng)??死锼沟侔菜拐f(shuō),如果該制度存在偏見(jiàn),那么大量的決定可能“對(duì)某些人群造成損害”,其后果非常嚴(yán)重且普遍存在。
算法的關(guān)注與喂養(yǎng)
當(dāng)然,數(shù)據(jù)不完整或不良導(dǎo)致錯(cuò)誤。這就是一些專家在上面引用的Guardian文章中引用偏倚算法結(jié)果的原因。牛津大學(xué)的Sandra Wachter總結(jié)如下:“世界存在偏見(jiàn),歷史數(shù)據(jù)存在偏差,因此我們收到偏頗的結(jié)果并不奇怪。”
同樣,克里斯蒂安斯說(shuō),“因?yàn)樗腔诂F(xiàn)實(shí)世界的觀察,”AI“觀察我們的偏見(jiàn),并產(chǎn)生性別歧視或種族主義的輸出。”將他自己的術(shù)語(yǔ)應(yīng)用于俗稱垃圾,垃圾輸出(GIGO) ),他說(shuō)問(wèn)題可能是構(gòu)成訓(xùn)練數(shù)據(jù)的 “食物”,因?yàn)樗旧硎清e(cuò)誤的,不完整的或有偏見(jiàn)的。
種族主義和性別歧視的結(jié)果可以通過(guò)不能充分代表人口差異的數(shù)據(jù)進(jìn)入系統(tǒng)。他提出了在會(huì)議上利用發(fā)言人提供培訓(xùn)數(shù)據(jù)的案例,其中婦女的代表比例可能只有20%。當(dāng)訓(xùn)練這種傾斜表示時(shí),算法將具有內(nèi)置偏差。
AI Alchemy
AI偏差問(wèn)題并不總是由于數(shù)據(jù)饋送,而在于它的決策方式。這些行動(dòng)之謎讓Ali Rahimi和Ben Recht感到震驚,他們將它與煉金術(shù)相提并論。
雖然煉金術(shù)可能占有一席之地,但并不是人們想要回答他們關(guān)于自動(dòng)決策的問(wèn)題的后果。正如Rahimi和Recht所說(shuō):“但我們現(xiàn)在正在建立管理醫(yī)療保健和參與民事辯論的制度。我想生活在這樣一個(gè)世界,這個(gè)世界的系統(tǒng)是建立在嚴(yán)謹(jǐn),可靠,可驗(yàn)證的知識(shí)上,而不是煉金術(shù)。“
超越黑匣子:發(fā)現(xiàn)決定決策的因素
這就是為什么有些人正在尋求一種方法來(lái)將透明度引入人工智能系統(tǒng)的思維過(guò)程,讓它解釋為什么它得出了它所做的結(jié)論。各地都在努力。
雖然這是朝著正確方向邁出的一步,但解決方案并不完美。因此研究仍在繼續(xù),并且根據(jù)GDPR,與歐盟相關(guān)的人員對(duì)實(shí)現(xiàn)可解釋的人工智能特別感興趣。
布魯塞爾大學(xué)的人工智能實(shí)驗(yàn)室是Christiaens公司成立的機(jī)構(gòu),也是致力于這種研究的地方之一。他說(shuō),實(shí)驗(yàn)室已經(jīng)找到了處理圖像識(shí)別的方法,并且“網(wǎng)絡(luò)在語(yǔ)言上解釋了已經(jīng)看到的內(nèi)容以及為什么”它得出的結(jié)論是關(guān)于圖片中的內(nèi)容。
“算法總是以同樣的方式工作,”Christiaens解釋道。“輸入數(shù)據(jù)被轉(zhuǎn)換為特征。”在AI實(shí)驗(yàn)室,他們可以“深入了解并查看決策樹(shù)中發(fā)生了什么。”在此基礎(chǔ)上,可以“查看所遵循的路徑”看看哪里出了問(wèn)題,然后“調(diào)整并重新訓(xùn)練”。
IBM還將其注意力集中在黑匣子問(wèn)題上,它最近宣布推出一項(xiàng)軟件服務(wù),即使在系統(tǒng)運(yùn)行IBM云的情況下,它也會(huì)考慮到AI的決定。除了及時(shí)警報(bào)外,它還提供了抵消有偏見(jiàn)結(jié)果所需數(shù)據(jù)的建議。
除了云服務(wù)之外,IBM還為正在構(gòu)建機(jī)器學(xué)習(xí)系統(tǒng)的公司提供咨詢,以試圖在未來(lái)減少有偏見(jiàn)的結(jié)果。也許其他人工智能專家也會(huì)參與咨詢,以幫助建立更好的系統(tǒng),并檢查可編程的偏差。
我們必須記住,人工智能系統(tǒng)與設(shè)置它們的人類一樣容易出錯(cuò),因此沒(méi)有人能夠?qū)Q策進(jìn)行說(shuō)明。