它們具有看似復(fù)雜的結(jié)果,但也有可能被愚弄,范圍從相對(duì)無害-將動(dòng)物誤識(shí)別為另一動(dòng)物-到引導(dǎo)自動(dòng)駕駛汽車的網(wǎng)絡(luò)將停車標(biāo)志誤解為指示停車標(biāo)志的潛在危險(xiǎn)是可以安全進(jìn)行的。
休斯頓大學(xué)的一位哲學(xué)家在發(fā)表于《自然機(jī)器智能》上的一篇論文中暗示,關(guān)于這些假定故障背后原因的普遍假設(shè)可能是錯(cuò)誤的,這些信息對(duì)于評(píng)估這些網(wǎng)絡(luò)的可靠性至關(guān)重要。
隨著機(jī)器學(xué)習(xí)和其他形式的人工智能越來越深入地融入社會(huì),從自動(dòng)柜員機(jī)到網(wǎng)絡(luò)安全系統(tǒng),其用途廣泛,UH哲學(xué)副教授卡梅倫·巴克納(Cameron Buckner)表示,了解由什么導(dǎo)致的明顯故障的來源至關(guān)重要。
研究人員稱其為“對(duì)抗性例子”,是指當(dāng)深度神經(jīng)網(wǎng)絡(luò)系統(tǒng)遇到用于構(gòu)建網(wǎng)絡(luò)的訓(xùn)練輸入之外的信息時(shí),會(huì)誤判圖像或其他數(shù)據(jù)。它們很罕見,被稱為“對(duì)抗性”,因?yàn)樗鼈兺ǔJ怯闪硪粋€(gè)機(jī)器學(xué)習(xí)網(wǎng)絡(luò)創(chuàng)建或發(fā)現(xiàn)的-機(jī)器學(xué)習(xí)領(lǐng)域中的一種邊緣技術(shù),介于創(chuàng)建復(fù)雜示例的更復(fù)雜方法與檢測(cè)和避免它們的更復(fù)雜方法之間。
巴克納說:“這些對(duì)抗性事件中的一些反而可能是人工產(chǎn)物,為了更好地了解這些網(wǎng)絡(luò)的可靠性,我們需要更好地了解它們是什么。”
換句話說,不發(fā)火可能是由網(wǎng)絡(luò)需要處理的內(nèi)容和所涉及的實(shí)際模式之間的相互作用引起的。這與完全被誤解不是完全一樣的。
巴克納寫道:“理解對(duì)抗性例子的含義需要探索第三種可能性:至少其中一些模式是人工制品。”“……因此,目前簡(jiǎn)單地丟棄這些模式既有代價(jià),也有天真地使用它們的危險(xiǎn)。”
導(dǎo)致這些機(jī)器學(xué)習(xí)系統(tǒng)犯錯(cuò)誤的對(duì)抗事件不一定是故意的瀆職造成的,但這是最高的風(fēng)險(xiǎn)所在。
巴克納說:“這意味著惡意行為者可能欺騙依賴于本來可靠的網(wǎng)絡(luò)的系統(tǒng)。”“那有安全應(yīng)用程序。”