這是一個(gè)人工智能仍然嚴(yán)重缺乏某些人類屬性的示例:測試表明,僅通過將一個(gè)單詞替換為同義詞就可以將自然語言處理(NLP)系統(tǒng)欺騙為誤解文本。
麻省理工學(xué)院的一個(gè)研究小組開發(fā)了一個(gè)名為TextFooler的軟件,該軟件尋找對(duì)NLP分類器最關(guān)鍵的單詞并將其替換。團(tuán)隊(duì)提供了一個(gè)示例:
對(duì)于人類來說,沒什么問題。然而,有關(guān)認(rèn)可機(jī)構(gòu)的結(jié)果卻是驚人的。例如,Google的神經(jīng)網(wǎng)絡(luò)BERT在確定Yelp的評(píng)論是正面還是負(fù)面時(shí)就差了多達(dá)7倍。
道格拉斯·天堂(Douglas Heaven)為《麻省理工學(xué)院技術(shù)評(píng)論》撰寫該研究的綜述,解釋了為何這項(xiàng)研究很重要。“我們已經(jīng)看到了許多對(duì)抗性攻擊的例子,其中最常見的是圖像識(shí)別系統(tǒng),在這種情況下,對(duì)輸入的微小改動(dòng)就會(huì)使AI產(chǎn)生混亂,并使AI對(duì)所看到的內(nèi)容進(jìn)行錯(cuò)誤分類,” Heaven寫道。“ TextFooler表明,這種攻擊方式也打破了NLP,虛擬助手(如Siri,Alexa和Google Home)背后的AI以及垃圾郵件過濾器和仇恨語音檢測器等其他語言分類器。”
該出版物探討了AI技術(shù)超越人類努力的各種方法,例如檢測乳腺癌,玩StarCraft和公開辯論。在其他領(lǐng)域,抵抗仍然存在,但徒勞無功。在12月,據(jù)報(bào)道,人類的司機(jī)仍在跳動(dòng)的整體認(rèn)可,在無人駕駛的賽車,盡管無人機(jī)賽的首席技術(shù)官聯(lián)盟預(yù)測,2023將是其中AI接管了一年。
研究人員希望,諸如TextFooler之類的軟件的最終目標(biāo)是使NLP系統(tǒng)更強(qiáng)大。
附言:對(duì)于那些從不列顛群島,中國和某些英聯(lián)邦國家以外的國家讀書的人來說,要“斯諾克”某人源于同名運(yùn)動(dòng),就是“讓一個(gè)人處于困境”。與美國相對(duì)應(yīng)的是“落后于八球制”,盡管這當(dāng)然會(huì)引起頭條。