幾位專家對AI構(gòu)成的威脅提出了自己的想法,毫不奇怪,假冒內(nèi)容是當前最大的危險。
專家在星期二在紐約的WSJ Pro網(wǎng)絡安全執(zhí)行官論壇上發(fā)表講話時認為,人工智能生成的內(nèi)容是我們社會迫切關(guān)注的問題。
社交媒體分析公司Graphika的首席創(chuàng)新官CamilleFrançois說,deepfake文章構(gòu)成了最大的危險。
我們已經(jīng)看到了人工生成的“虛假新聞”和虛假信息活動所能起到的作用,因此,對于許多人來說,在此過程中涉及AI是一個主要威脅,這并不令人感到驚訝。
弗朗索瓦(François)強調(diào)指出,當今的偽造文章和虛假宣傳活動依靠大量的手工工作來創(chuàng)建和傳播虛假信息。
弗朗索瓦(François)說:“當您查看虛假宣傳活動時,創(chuàng)建假網(wǎng)站和假博客的體力勞動量是巨大的。”
“如果您只是簡單地使可信的文本變得自動化,那么它確實以非常自動化和可擴展的方式在垃圾中泛濫成災。所以我很擔心。”
2月,OpenAI 推出了其GPT-2工具,該工具可生成令人信服的假文字。AI接受了跨越800萬個網(wǎng)站的40 GB文本的培訓。
OpenAI擔心會造成損害,因此決定不公開發(fā)布GPT-2。但是,八月,兩名畢業(yè)生決定重新創(chuàng)建 OpenAI的文本生成器。
這些畢業(yè)生表示,他們不認為自己的工作目前會對社會構(gòu)成風險,因此將其發(fā)布給全世界,是在沒有一家擁有大量資源的公司或政府的情況下所能實現(xiàn)的。
“這讓大家有關(guān)于安全的重要談話,研究人員能夠幫助確保對未來的潛在濫用,”萬尼亞·科恩的畢業(yè)生之一,說:有線。
McAfee首席數(shù)據(jù)科學家兼高級首席工程師Celeste Fralick在WSJ活動上與François在同一小組上發(fā)言,建議公司與專門研究深造假的公司合作。
與AI有關(guān)的最可怕的網(wǎng)絡安全威脅之一是“對抗性機器學習攻擊”,黑客利用這種攻擊來發(fā)現(xiàn)并利用AI系統(tǒng)中的漏洞。
Fralick提供了加利福尼亞大學伯克利分校教授Dawn Song進行的實驗示例,其中無人駕駛汽車被誤認為僅使用貼紙就可以使停車標志是45 MPH限速標志。
據(jù)Fralick稱,McAfee本身也進行了類似的實驗,并發(fā)現(xiàn)了進一步的漏洞。其中之一是,再次修改了35 MPH的速度限制標志,以欺騙無人駕駛汽車的AI。
“我們擴展了三者的中間部分,因此賽車沒有將其識別為35。它認為它是85。”她說。
兩位小組成員都認為,除了采用應對攻擊的策略外,還需要對整個員工進行有關(guān)AI構(gòu)成的威脅的教育。
弗朗索瓦總結(jié)說:“確保人們具有基本的AI素養(yǎng)非常緊迫。”