AI揭示一個人如何在群體中做出選擇的過程

2020-02-15 13:51:09    來源:    作者:

對于大型團(tuán)體設(shè)置(例如,在線論壇和社交媒體),我們做出的選擇對我們來說似乎很自然。但是我們的決策過程比我們所知道的更為復(fù)雜。因此,研究人員一直在努力了解看似直觀的過程背后的原因。

AI揭示一個人如何在群體中做出選擇的過程

現(xiàn)在,華盛頓研究的新大學(xué)發(fā)現(xiàn),在大集團(tuán)基本上是匿名成員,人們做出基于“模型選擇的頭腦組”和的選擇會如何影響理論頭腦的演變模擬。

借助植根于人工智能和機(jī)器人技術(shù)的數(shù)學(xué)框架,威斯康星大學(xué)的研究人員能夠揭示一個人如何在群體中做出選擇的過程。而且,他們還發(fā)現(xiàn),與傳統(tǒng)的描述方法相比,他們能夠更頻繁地預(yù)測一個人的選擇。結(jié)果發(fā)表在11月27日星期三的《科學(xué)進(jìn)展》上。

威斯康星大學(xué)Paul G. Allen計算機(jī)科學(xué)學(xué)院的CJ和Elizabeth Hwang教授,資深作者Rajesh Rao說:“鑒于社交媒體在指示人類如何作為特定群體的成員方面起著越來越重要的作用,我們的結(jié)果特別有趣。”和工程學(xué)以及神經(jīng)技術(shù)中心聯(lián)合主任。

“在在線論壇和社交媒體小組中,匿名小組成員的共同行動會影響您的下一個行動,相反,您自己的行動會改變整個小組的未來行為,” Rao說。

AI揭示一個人如何在群體中做出選擇的過程

研究人員希望找出在此類環(huán)境中起作用的機(jī)制。

在論文中,他們解釋了人類的行為依賴于對環(huán)境未來狀態(tài)的預(yù)測(對可能發(fā)生的情況的最佳猜測),并且該環(huán)境的不確定性在社會環(huán)境中“急劇增加”。為了預(yù)測當(dāng)另一個人參與時可能發(fā)生的情況,一個人建立了另一個人的思想模型,稱為思想理論,然后使用該模型來模擬一個人自己的行為將如何影響另一個“思想”。

盡管此行為對于一對一的交互作用很好,但是要在大型組中為單個思維建模的能力要困難得多。這項(xiàng)新的研究表明,即使不知道其他人的身份,人們也可以創(chuàng)建代表該人“思想”的平均模型。

為了研究團(tuán)隊(duì)決策中出現(xiàn)的復(fù)雜性,研究人員集中在“志愿者的困境任務(wù)”上,其中一些人忍受了一些使整個團(tuán)隊(duì)受益的成本。他們在論文中解釋說,任務(wù)的例子包括守衛(wèi)職責(zé),獻(xiàn)血和在公共場所向前邁進(jìn)以制止暴力行為。

為了模仿這種情況并研究行為和大腦反應(yīng),研究人員將受試者逐個放入MRI,然后讓他們玩游戲。在稱為公共物品游戲的游戲中,對象對公共金錢的貢獻(xiàn)會影響其他人,并確定團(tuán)隊(duì)中每個人的回報。一個受試者可以決定捐獻(xiàn)一美元,也可以決定“搭便車”,也就是說,不希望獲得報酬,而是希望其他人也可以貢獻(xiàn)力量。

AI揭示一個人如何在群體中做出選擇的過程

如果總捐款額超過預(yù)定數(shù)額,每個人都將獲得兩美元。受試者與他們從未見過的其他人進(jìn)行了數(shù)十輪比賽。對于這個主題不為人知的是,其他的實(shí)際上是由模仿先前人類玩家的計算機(jī)模擬的。

“我們幾乎可以瞥見人類的思想,并分析其做出集體決策的潛在計算機(jī)制,”主要作者艾倫學(xué)院的博士生Koosha Khalvati說。“當(dāng)與大量人進(jìn)行互動時,我們發(fā)現(xiàn)人們試圖基于普通的小組成員的意圖模型來預(yù)測未來的小組互動。重要的是,他們還知道自己的行為會影響小組。例如,他們意識到即使他們對其他人都是匿名的,他們的自私行為也會減少小組在未來的互動中的協(xié)作,并可能帶來不希望的結(jié)果。”

在他們的研究中,研究人員能夠?yàn)檫@些動作分配數(shù)學(xué)變量,并創(chuàng)建自己的計算機(jī)模型來預(yù)測人在游戲中可能做出的決定。他們發(fā)現(xiàn),他們的模型比強(qiáng)化學(xué)習(xí)模型更能預(yù)測人的行為(也就是說,當(dāng)一個參與者根據(jù)上一輪的支付方式而不論其他參與者如何學(xué)習(xí)而做出貢獻(xiàn)時)以及更傳統(tǒng)的描述性方法。

鑒于該模型為人類行為提供了定量解釋,Rao想知道在構(gòu)建與人類互動的機(jī)器時是否有用。

他說:“在機(jī)器或軟件與大批人員交互的情況下,我們的結(jié)果可能會為AI帶來一些教訓(xùn)。” “一臺模擬“一群人的思想”并模擬其行為如何影響該群的機(jī)器可能會導(dǎo)致更人性化的AI,其行為會更好地與人類的價值觀保持一致。”

鄭重聲明:本文版權(quán)歸原作者所有,轉(zhuǎn)載文章僅為傳播更多信息之目的,如作者信息標(biāo)記有誤,請第一時間聯(lián)系我們修改或刪除,多謝。