滑鐵盧大學的一項研究讓10名男性和10名女性與Amazon Alexa,Apple Siri和Google Assistant進行了互動,然后向參與者詢問有關語音助手個性的問題。亞馬遜,蘋果和谷歌都竭盡全力為助手創(chuàng)建角色,以使其與消費者更加相關。滑鐵盧計算機科學學院教授愛德華·蘭克(Edward Lank)表示,這些努力至少可以通過以下一種方式獲得回報:
人們正在對這些對話代理人進行擬人化,這可能導致他們向這些代理人背后的公司透露信息,否則他們就不會這樣做。
隨后,他建議語音助手是“公司用來向我們出售東西的數(shù)據(jù)收集工具。”該研究結果的細節(jié)要到4月份在ACM CHI計算系統(tǒng)人為因素會議上才能揭曉?;F盧大學新聞中的文章。了解將揭示哪些類型的信息將不會被發(fā)現(xiàn)以及研究人員如何知道將不會共享信息將是很有趣的。但是,今天還有更多數(shù)據(jù)可用。
SIRI狡猾,ALEXA關心
尚不清楚消費者如何選擇狡猾,關心,卑鄙和真誠的術語,但這些術語形成了鮮明的對比。Link告訴《滑鐵盧大學新聞》,與Alexa的真誠和關懷特征相比,Siri被視為不誠實和狡猾。如果在大規(guī)模試驗中復制這些觀點,那將在庫比蒂諾引起關注。這可能只是在西雅圖慶祝的原因。谷歌助手的情緒并未得到分享,而是“ Alexa(特別是Siri)的個性更加明確和明顯”,而Alexa則被視為“中立而普通”。
重要的是要注意,消費者傾向于將角色特征分配給合成語音,而不管它是否是故意設計的。與Voices.com和Pulse Labs進行的Voicebot 研究發(fā)現(xiàn),用于閱讀新聞的合成語音具有各種不同的特征,例如單調(diào),機器人,沉著,陽剛,沉悶和愉快。這是人性的一部分。角色發(fā)展是語音助手提供者試圖以實現(xiàn)其目標的方式來塑造情感的嘗試。
ALEXA,GOOGLE助手和SIRI的頭像
這項研究還讓參與者親自描述語音助手,并創(chuàng)建一個化身來代表他們認為自己的樣子。當然,這項研究的結論是,人類傾向于擬人化語音助手,研究人員要求參與者做到這一點。這項工作可能影響了揭示矛盾觀點的最終結論。據(jù)說同一位助手長發(fā)或短發(fā),深色或中性色的休閑或商務正裝。這并不完全是共識。
還有一點需要注意。許多行業(yè)觀察家和內(nèi)部人士聲稱,Google犯了一個大錯誤,因為它選擇了助手這個名字,而不是像Alexa或Siri這樣聽起來更人性化的東西。但是,與此同時,Google實際上為其通用名稱“助理”定義了一個角色,這似乎已經(jīng)為消費者使其擬人化提供了足夠的影響。此舉也足以引起研究批評“助手”試圖變得如此人性化,以至于消費者可能會共享更多的信息。