我們需要談?wù)劦赖拢喝斯ぶ悄軘?shù)據(jù)和框架的挑戰(zhàn)

2020-01-16 15:34:20    來(lái)源:    作者:

您如何訓(xùn)練AI避免行為不端?至少根據(jù)馬薩諸塞州阿默斯特大學(xué),里約熱內(nèi)盧聯(lián)邦大學(xué)和斯坦福大學(xué)聯(lián)合發(fā)表的論文《防止智能機(jī)器的不良行為》,美國(guó)和巴西的科學(xué)家似乎已經(jīng)找到了答案。為了向艾薩克·阿西莫夫(Isaac Asimov)的角色哈里·塞爾登(Hari Seldon)致敬,該小組開(kāi)發(fā)了所謂的“塞爾登算法”,這是一種機(jī)器學(xué)習(xí)設(shè)計(jì)師的框架,可將行為回避指令構(gòu)建到實(shí)際產(chǎn)品和服務(wù)中使用的算法中。

我們需要談?wù)劦赖拢喝斯ぶ悄軘?shù)據(jù)和框架的挑戰(zhàn)

阿西莫夫(Asimov)在1942年的短篇小說(shuō)《奔跑》(Runaround)中提出的三項(xiàng)機(jī)器人定律得到了很好的引用。本文試圖將重點(diǎn)放在第一條定律上,即永遠(yuǎn)不會(huì)傷害人類(lèi),使用一種新技術(shù),該新技術(shù)使用數(shù)學(xué)算法將目標(biāo)(例如避免性別偏見(jiàn))轉(zhuǎn)化為機(jī)器學(xué)習(xí)算法的指令,以訓(xùn)練AI應(yīng)用程序。

斯坦福大學(xué)計(jì)算機(jī)科學(xué)助理教授,該論文的高級(jí)作者艾瑪·布朗斯基爾(Emma Brunskill)說(shuō): “我們希望推動(dòng)尊重人類(lèi)用戶價(jià)值并證明我們對(duì)自主系統(tǒng)的信任的人工智能。” 隨著社會(huì)越來(lái)越依賴人工智能,思考如何創(chuàng)建最能尊重安全性和公平性等價(jià)值的算法至關(guān)重要。

我們需要談?wù)劦赖拢喝斯ぶ悄軘?shù)據(jù)和框架的挑戰(zhàn)

這樣的想法是,如果可以用數(shù)學(xué)方式定義“不安全”或“不公平”的結(jié)果,則開(kāi)發(fā)人員可以創(chuàng)建從數(shù)據(jù)中學(xué)習(xí)的算法,以減輕潛在的不良行為。當(dāng)然,任何提議從倫理上清理數(shù)據(jù)的框架仍將充滿技術(shù)和道德上的復(fù)雜性,但是盡管這可能會(huì)限制AI終結(jié)人類(lèi)的任何嘗試,但企業(yè)如何應(yīng)對(duì)數(shù)據(jù)無(wú)意地使AI傾斜呢?

我們需要談?wù)劦赖拢喝斯ぶ悄軘?shù)據(jù)和框架的挑戰(zhàn)

舊金山埃森哲實(shí)驗(yàn)室(Accenture Labs)首席研究科學(xué)家埃迪·利昂戈薩里(Edy Liongosari)表示,“技術(shù)對(duì)于解決行業(yè)中的數(shù)據(jù)偏差問(wèn)題至關(guān)重要”。Liongosari最近在巴塞羅那舉行的IoT世界大會(huì)活動(dòng)上發(fā)表講話,概述了負(fù)責(zé)任AI的框架,該框架?chē)@組織在處理和使用數(shù)據(jù)以構(gòu)建和實(shí)現(xiàn)應(yīng)用程序時(shí)需要考慮的業(yè)務(wù)流程和技術(shù)而構(gòu)建。

鄭重聲明:本文版權(quán)歸原作者所有,轉(zhuǎn)載文章僅為傳播更多信息之目的,如作者信息標(biāo)記有誤,請(qǐng)第一時(shí)間聯(lián)系我們修改或刪除,多謝。