大多數(shù)人在個人和職業(yè)生活中每天都會遇到人工智能(AI)。人們不假思索,就要求Alexa將蘇打水添加到購物清單中,使用Google Maps進行驅(qū)動,并向Snapchat添加過濾器-所有AI使用示例。但是,密蘇里州科技大學的一位研究人員正在研究什么是AI具有“頭腦”的證據(jù),這將顯示一個人何時將AI行為視為道德上的錯誤。
密蘇里州科學與技術(shù)學院心理學的助理教授丹尼爾·尚克博士正在建立一種理論,即如果人們認為實體具有思想,那么這種觀點將決定他們賦予它什么精神權(quán)利和責任。他的研究將顯示一個人何時將AI行為視為道德上的錯誤,并可能有助于減少智能設(shè)備的拒絕并改善設(shè)備。
尚克說:“我想了解人們認為機器擁有思想的社會互動以及他們認為機器是道德主體或受害者的情況。”
Shank的行為科學工作將這一理論應(yīng)用于AI代理和機器人等先進機器。
“當我們確實意識到機器背后的想法時,就會告訴我們有關(guān)技術(shù),能力和行為的一些信息,但最終它們會向我們揭示更多關(guān)于人類的信息,” Shank解釋說。“在這些相遇中,我們從情感上處理了非人類技術(shù)與有思想之間的鴻溝,從本質(zhì)上感覺到了我們機器思維的方式。”
尚克(Shank)正在一項由美國陸軍研究辦公室(ARO)資助的為期三年的項目中,以更好地了解人們對AI的看法。ARO是美國陸軍作戰(zhàn)能力發(fā)展司令部陸軍研究實驗室的組成部分。
在研究的第一年,他收集了人們與AI的個人互動的定性描述,這些互動涉及道德上的錯誤或涉及認為AI有“很多頭腦”的人。Shank的研究發(fā)現(xiàn),有31%的受訪者報告了個人信息泄露事件,有20%的受訪者報告了不良內(nèi)容暴露事件,尚克認為,這都是由于它們頻繁出現(xiàn)在個人和家用設(shè)備上而引起的。
ARO社會與行為科學項目經(jīng)理Lisa Troyer博士說:“尚克博士的工作通過將長期的認知和情感社會心理學理論與人與人互動研究相結(jié)合,從而產(chǎn)生了對人與人團隊合作的新認識。” 。“他的研究已經(jīng)產(chǎn)生了關(guān)于自主代理人的道德觀念的作用以及這些觀念如何影響有效的人與代理團隊的科學見解。”
目前,在研究的第二年,他正在進行受控實驗,在該實驗中,人工智能的思維水平會發(fā)生變化,然后人工智能會成為道德行為的實施者或受害者。Shank希望這將使他能夠在AI與人類之間進行更直接的比較。到目前為止,他的研究發(fā)現(xiàn),盡管諸如社交機器人之類的某些AI可以承擔更大的社會角色,但人類接受這些角色的AI可以增強對思維和情緒反應(yīng)的感知。
他的研究的最后階段將使用調(diào)查和模擬來了解人們對AI的印象是否可以預(yù)測道德水平。
尚克說:“與網(wǎng)絡(luò)連接的技術(shù),經(jīng)過大數(shù)據(jù)培訓并在各種社交網(wǎng)絡(luò)平臺上運行的技術(shù)現(xiàn)在在我們的文化中很普遍。” “這些技術(shù),無論它們是否是適當?shù)娜斯ぶ悄?,在人們的生活中都是例行的,但并不是對這些技術(shù)的每次使用都會使我們將其視為有思想的。”
美德或罪惡是否可以歸因于AI的問題仍然取決于人類是否愿意將機器判斷為具有道德品格。隨著對AI倫理學和心理學的研究不斷發(fā)展,人們正在考慮研究諸如AI權(quán)利和AI道德之類的新主題。