這是一個人工智能仍然嚴(yán)重缺乏某些人類屬性的示例:測試表明,僅通過將一個單詞替換為同義詞,自然語言處理(NLP)系統(tǒng)就可以被欺騙為誤解文本。
麻省理工學(xué)院的一個研究小組開發(fā)了一個名為TextFooler的軟件,該軟件尋找對NLP分類器最關(guān)鍵的單詞并將其替換。團(tuán)隊(duì)提供了一個示例:
“字符,投在不可能的情況下做作,完全是從現(xiàn)實(shí)疏遠(yuǎn)”和
“字符,在投不可能改造的情況下,是完全 從現(xiàn)實(shí)疏遠(yuǎn)”
對于人類來說,沒什么問題。然而,有關(guān)認(rèn)可機(jī)構(gòu)的結(jié)果卻是驚人的。例如,Google的神經(jīng)網(wǎng)絡(luò)BERT在確定Yelp的評論是正面還是負(fù)面時(shí)就差了多達(dá)7倍。
道格拉斯·天堂(Douglas Heaven)為《麻省理工學(xué)院技術(shù)評論》撰寫該研究的綜述,解釋了為什么這項(xiàng)研究很重要。“我們已經(jīng)看到了許多對抗性攻擊的例子,大多數(shù)情況下是在圖像識別系統(tǒng)中,對輸入的微小改動會使AI變得模糊不清,并使AI對所看到的內(nèi)容進(jìn)行錯誤分類,” Heaven寫道。“ TextFooler表明,這種攻擊方式也打破了NLP,虛擬助手(如Siri,Alexa和Google Home)背后的AI以及垃圾郵件過濾器和仇恨語音檢測器等其他語言分類器。”
該出版物探討了AI技術(shù)超越人類努力的各種方法,例如檢測乳腺癌,玩星際爭霸和公開辯論。在其他領(lǐng)域,抵抗仍然存在,盡管徒勞無功。在12月,據(jù)報(bào)道,人類的司機(jī)仍在跳動的整體認(rèn)可,在無人駕駛的賽車,盡管無人機(jī)賽的首席技術(shù)官聯(lián)盟預(yù)測,2023將是其中AI接管了一年。
研究人員希望,諸如TextFooler之類的軟件的最終目標(biāo)是使NLP系統(tǒng)更強(qiáng)大。
后記:對于那些從不列顛群島,中國和某些英聯(lián)邦國家以外的國家讀書的人來說,要“斯諾克”某個源于同名運(yùn)動的人,就是“讓一個人處于困境”。與美國相對應(yīng)的是“落后于八球制”,盡管這當(dāng)然會引起頭條。