人工智能無(wú)處不在。移動(dòng)地圖通過(guò)交通為我們提供路線,算法現(xiàn)在可以駕駛汽車(chē),虛擬助手可以幫助我們?cè)诠ぷ骱蜕钪g平穩(wěn)切換,而智能代碼則可以使我們的下一首新歌呈現(xiàn)。
但是,人工智能也可能被證明是危險(xiǎn)的。特斯拉首席執(zhí)行官埃隆·馬斯克(Elon Musk)曾警告說(shuō),有偏見(jiàn),不受監(jiān)督和不受監(jiān)管的AI可能是“我們作為文明面臨的最大風(fēng)險(xiǎn)”。相反,AI專(zhuān)家擔(dān)心自動(dòng)化系統(tǒng)可能會(huì)吸收人類(lèi)程序員的偏見(jiàn)。而且,當(dāng)將偏見(jiàn)編碼到支持AI的算法中時(shí),將幾乎無(wú)法消除。
AI偏見(jiàn)的例子是豐富的:在2015年7月的谷歌照片的AI系統(tǒng)標(biāo)記黑人大猩猩 ; CNET在2018年3月報(bào)道說(shuō),亞馬遜和谷歌的智能設(shè)備似乎難以理解口音 ; 2018年10月,亞馬遜破壞了以人工智能為動(dòng)力的工作招聘工具,該工具似乎歧視婦女; 2019年5月,聯(lián)合國(guó)教育,科學(xué)及文化組織(UNESCO)的一份報(bào)告發(fā)現(xiàn),人工智能個(gè)人助理可以強(qiáng)化有害的性別定型觀念。
為了更好地理解AI的治理方式,以及如何防止人類(lèi)的偏見(jiàn)改變我們每天依賴的自動(dòng)化系統(tǒng),CNET與位于舊金山的Salesforce AI專(zhuān)家Kathy Baxter和Richard Socher進(jìn)行了交談。Baxter說(shuō),調(diào)節(jié)技術(shù)可能具有挑戰(zhàn)性,并且該過(guò)程將需要細(xì)微差別。
她說(shuō),該行業(yè)正在努力開(kāi)發(fā)“負(fù)責(zé)任的,值得關(guān)注的,值得關(guān)注的,可以保護(hù)人權(quán)的人工智能”。“我們確保[該程序]不侵犯這些人權(quán)。它還必須透明。它必須能夠向最終用戶解釋它在做什么,并為他們提供機(jī)會(huì)做出明智的選擇。它。”
Baxter說(shuō),Salesforce和其他技術(shù)公司正在針對(duì)AI數(shù)據(jù)模型中使用的數(shù)據(jù)標(biāo)準(zhǔn)制定跨行業(yè)指南。“我們將顯示模型中使用的因素,例如年齡,種族,性別。如果您使用的是受保護(hù)的數(shù)據(jù)類(lèi)別之一,我們將升旗。