根據(jù)涉及UCL的一項新研究,在閱讀人們臉上的情緒時,人工智能仍然落后于人類觀察者。
根據(jù)《PLOS One》上發(fā)表的發(fā)現(xiàn),這種差異在自發(fā)地表達情感方面尤其明顯。
由都柏林城市大學領(lǐng)導(dǎo)的研究小組研究了八個“開箱即用”的自動分類器,用于面部表情識別(可以識別面部人類表情的人工智能),并將其與人類觀察者的表情識別性能進行了比較。
研究人員發(fā)現(xiàn),人類對情感的識別準確度為72%,而在測試的人工智能中,研究人員觀察到的識別準確度在48%至62%之間變化。
首席作者達米恩·杜佩(DamienDupré)博士(都柏林城市大學)說:“聲稱能夠從面部表情識別人類情緒的AI系統(tǒng)現(xiàn)在很容易開發(fā)。但是,大多數(shù)人工智能系統(tǒng)都是基于無定論的科學證據(jù),即人們在面部表情中表達情緒。一樣的方法。
“對于這些系統(tǒng),人類的情感只可以歸結(jié)為六種基本情感,但它們不能很好地應(yīng)對混合情感。
“使用這種系統(tǒng)的公司需要意識到,獲得的結(jié)果并不是衡量所感受到的情緒的指標,而僅僅是衡量一個人的面部與應(yīng)該對應(yīng)于這六種情緒之一的面部相匹配的程度。”
這項研究涉及從兩個大型數(shù)據(jù)庫中采樣的937個視頻,這些視頻傳達了六種基本情緒(幸福,悲傷,憤怒,恐懼,驚奇和厭惡)。選擇了兩個著名的動態(tài)面部表情數(shù)據(jù)庫:紐約賓厄姆頓大學的BU-4DFE和達拉斯德克薩斯大學的另一個。兩者都在情感類別方面進行了注釋,并且包含姿勢或自發(fā)的面部表情。所有檢查的表情都是動態(tài)的,以反映人類面部行為的現(xiàn)實本質(zhì)。
自發(fā)性情感行為的AI分類準確率始終較低,但姿勢表達的差距縮小。最好的兩種人工智能系統(tǒng)在識別姿勢方面也很熟練。
為了評估情感識別的準確性,該研究比較了人類裁判與八種商用自動分類器的性能。
共同作者,UCL心理學和語言科學學院的Eva Krumhuber博士補充說:“人工智能在識別人們的面部表情方面已經(jīng)走了很長一段路,但是我們的研究表明,在識別真正的人類情感方面仍有改進的空間。”
在PLOS一個研究是由研究人員在都柏林城市大學,UCL,不來梅大學和貝爾法斯特女王大學進行。
Krumhuber博士最近領(lǐng)導(dǎo)了另一項研究,該研究發(fā)表在《情感》雜志上,該研究比較了十四種不同的動態(tài)面部表情數(shù)據(jù)庫在情感識別方面的人與機器。這項規(guī)模較小的研究使用了不同的方法來分析機器數(shù)據(jù),發(fā)現(xiàn)AI在識別情感方面可與人類媲美。