多年來(lái),與人工智能的交互一直是科幻小說(shuō)和學(xué)術(shù)項(xiàng)目的一部分,但隨著智能系統(tǒng)承擔(dān)越來(lái)越多的責(zé)任,更換工作,并參與復(fù)雜的情感決策,找出如何與這些系統(tǒng)協(xié)作已成為務(wù)實(shí)的問(wèn)題,需要?jiǎng)?wù)實(shí)的解決方案。
機(jī)器學(xué)習(xí)和認(rèn)知系統(tǒng)現(xiàn)在是人們每天與許多產(chǎn)品交互的主要部分,但是為了充分利用人工智能的潛力,人們需要更豐富的方式與他們使用的系統(tǒng)進(jìn)行通信。設(shè)計(jì)師的角色是弄清楚如何在人與機(jī)器之間建立協(xié)作關(guān)系,幫助智能系統(tǒng)增強(qiáng)人類的創(chuàng)造力和機(jī)構(gòu),而不是簡(jiǎn)單地替換它們。
人與技術(shù)之間的關(guān)系與更快的處理器一樣重要。
為什么信任和同理心很重要
Siri不會(huì)為你做出改變生活的決定,所以如果它不是很清楚它的結(jié)論是什么,而是與一個(gè)通過(guò)采取模糊輸入做出重要決定的系統(tǒng)進(jìn)行交互也沒(méi)關(guān)系做一些非常復(fù)雜的事情,然后給你模糊的輸出需要的不僅僅是幾個(gè)按鈕和一個(gè)狀態(tài)指示器。這種互動(dòng)需要人與技術(shù)之間的信任和同情。如果智能系統(tǒng)的目的是做出人們不必要的復(fù)雜微妙的決定,那么如果人們不相信他們這樣做就毫無(wú)意義。這意味著,制定人與我們使用的技術(shù)之間的關(guān)系變得與構(gòu)建更快的處理器一樣重要。
想象一下,當(dāng)你突然踩下制動(dòng)器,改變路線并向新方向前進(jìn)時(shí),你正在自動(dòng)駕駛汽車上下班。也許汽車看到了你沒(méi)有發(fā)現(xiàn)或未發(fā)現(xiàn)事故的事情,但如果它沒(méi)有把這一切告訴你,你不相信它做出快速?zèng)Q定,改變當(dāng)然沒(méi)有任何跡象表明為什么會(huì)非常令人不安。在大多數(shù)情況下,汽車不會(huì)面臨道德上具有挑戰(zhàn)性的決定,但有時(shí)他們會(huì)做,例如在擁擠的事故情況下轉(zhuǎn)向哪種方式,所以在自動(dòng)駕駛汽車真正起飛之前,人們可能不得不相信他們的汽車為他們做出復(fù)雜的,有時(shí)是道德的決定,就像另一個(gè)人開(kāi)車時(shí)一樣。像醫(yī)療保健這樣的領(lǐng)域更加令人擔(dān)憂,人工智能也參與其中。
人工智能系統(tǒng)知道什么時(shí)候他們不懂東西。
創(chuàng)建反饋循環(huán)
在對(duì)話中,我可能會(huì)誤解您的要求,或者我可能需要更多信息,但無(wú)論哪種方式,通信的來(lái)回性質(zhì)都可以讓您快速糾正錯(cuò)誤并讓我填補(bǔ)任何空白我需要知道的。類似的人機(jī)交互允許系統(tǒng)獲得理解問(wèn)題所需的信息,即使在不能提前定義理解問(wèn)題所需的信息時(shí)也是如此。這也利用了許多AI系統(tǒng)的一個(gè)關(guān)鍵區(qū)別功能:他們知道何時(shí)不理解某些東西。
一旦系統(tǒng)獲得了這種自我意識(shí),就可以進(jìn)行根本不同的交互。界面設(shè)計(jì)的最大挑戰(zhàn)之一是確定在給定的上下文中哪些信息是適當(dāng)?shù)?,以便可以刪除或不再?gòu)?qiáng)調(diào)其余信息。系統(tǒng)本身可以做出這些判斷時(shí)會(huì)發(fā)生什么?
像人一樣的復(fù)雜系統(tǒng)會(huì)犯錯(cuò)誤。
設(shè)計(jì)錯(cuò)誤
復(fù)雜的系統(tǒng),像人一樣,會(huì)犯錯(cuò)誤。完全避免它們是不可能的。我們的目標(biāo)應(yīng)該是減少其影響并鼓勵(lì)用戶原諒他們并幫助系統(tǒng)隨著時(shí)間的推移學(xué)習(xí)。隨著系統(tǒng)變得個(gè)性化并且能夠?qū)W習(xí),用戶容易地教他們?nèi)绾伪憩F(xiàn)的能力變得更加重要和強(qiáng)大。
即使在靜音模式下,Apple決定讓iPhone鬧鐘響起也是這個(gè)問(wèn)題的一個(gè)有趣例子。將iPhone靜音模式只有禁用聲音,你沒(méi)有明確要求,但一般人的期望是簡(jiǎn)單的; 當(dāng)按下關(guān)閉按鈕時(shí),某些東西會(huì)關(guān)閉。這種期望的不匹配導(dǎo)致了問(wèn)題 - 例如在電影院中發(fā)出警報(bào)??陀^地說(shuō),另一個(gè)問(wèn)題 - 錯(cuò)過(guò)會(huì)議,因?yàn)槟愕氖謾C(jī)處于靜音模式并且沒(méi)有叫醒你 - 更糟糕的是。然而,如果有更好的相互理解和對(duì)系統(tǒng)錯(cuò)誤影響的更大敏感性,這兩個(gè)問(wèn)題都可以減輕或避免。目前,這些錯(cuò)誤的影響可能相當(dāng)微不足道,但風(fēng)險(xiǎn)正在迅速上升。
建立信任和協(xié)作
什么使得乘坐飛機(jī)或公共汽車駕駛由完全陌生人駕駛的人甚至不會(huì)三思而后行,而進(jìn)入無(wú)人駕駛車輛的想法會(huì)導(dǎo)致焦慮?部分原因在于我們通常認(rèn)為其他人是合理稱職的司機(jī) - 機(jī)器可能管理的東西 - 但除此之外還有更多。我們理解為什么人們?cè)谥庇X(jué)層面上的行為方式,并且我們可以預(yù)測(cè)他們的行為方式。我們對(duì)當(dāng)前的智能系統(tǒng)沒(méi)有這種同情心。
在我們弄清楚如何建立信任之前,沒(méi)有方向盤的無(wú)人駕駛汽車令人不安。
為了正確對(duì)待患者,醫(yī)生,無(wú)論是人還是虛擬醫(yī)生,都需要聰明,她還必須安慰,說(shuō)服和激發(fā)信心。同樣地,在我們弄清楚如何像其他人一樣建立信任之前,進(jìn)入沒(méi)有方向盤的無(wú)人駕駛汽車將會(huì)令人不安。
在我們目前在Artefact的一個(gè)項(xiàng)目中,我們正在探索汽車向完全自動(dòng)控制過(guò)渡的未來(lái)。在部分自主模式下顯示汽車對(duì)周圍環(huán)境的解釋可以幫助建立駕駛員對(duì)汽車能夠?qū)ζ渌囃蝗桓淖冘嚨阑蛐腥瞬鹊浇值赖那闆r作出適當(dāng)反應(yīng)的信任。這有助于人們看到汽車能夠接管,因?yàn)樗麄冊(cè)陂_(kāi)車時(shí)會(huì)放棄越來(lái)越多的代理商。這種表達(dá)系統(tǒng)解釋或理解的想法也是一些有趣的Watson界面的核心,這些界面可以幫助人們?cè)儐?wèn)并獲得復(fù)雜的高級(jí)問(wèn)題的答案。
很多人都警告人工智能驅(qū)動(dòng)的自動(dòng)化有可能通過(guò)消除大多數(shù)工作來(lái)摧毀經(jīng)濟(jì)。以上個(gè)世紀(jì)的轉(zhuǎn)折為例,汽車的廣泛引入對(duì)大多數(shù)人的生活產(chǎn)生了巨大的積極影響,但它也使幾乎所有的馬都失業(yè)了。在21世紀(jì)初,我們是否會(huì)受益于今天的技術(shù)革命,或者我們是馬匹將建筑材料拖到亨利福特的新工廠?開(kāi)發(fā)與人們協(xié)作而不是簡(jiǎn)單地替換它們的人工智能系統(tǒng)可以幫助確保人工智能的好處在更多人之間傳播,創(chuàng)建比人或機(jī)器更聰明的系統(tǒng)。