Deepfake被稱為操縱視頻,其中通過使用人工智能將一個人更改或顯示為另一個人。由于人工智能的幫助同時用于制作此類視頻,因此AI技術正致力于應對此類威脅。
Deepfake幾乎不可能區(qū)分真實與非真實。許多人認為,深造假貨會導致危險的后果,例如造成混亂,挑起種族暴力等等。作為公眾人物,許多著名的政治人物記者和商人都經(jīng)歷了這種欺詐行為。使用偽造的應用程序技術,制作了奧巴馬的視頻。同樣,還制作了唐納德·特朗普的視頻和馬克·扎克伯格的視頻。
打擊假貨的技術
現(xiàn)在,許多科技公司正在共同努力,以打擊這些騙局。根據(jù)網(wǎng)絡安全創(chuàng)業(yè)公司Deep-trace的一項研究,從12月到8月,網(wǎng)上的Deepfake數(shù)量幾乎翻了一番,達到14,678。Facebook,Twitter和Google等公司用于信息的上載和共享。這些技術公司在應對這些威脅方面可以提供很大的幫助。
自動化的深層偽造檢測有助于深層偽造檢測,但是該技術最有可能僅在短期內(nèi)有用。自動深度偽造檢測使用技術來確定是否已從原始文件修改了特定的圖像,音頻或視頻。他們發(fā)現(xiàn)諸如口腔和語音瞬間之間的差異,不自然的面部特征和許多其他方法之類的跡象。
DARPA及其程序:
國防高級研究計劃局(DARPA)開發(fā)了一種工具,政府機構可以使用該工具來識別更改后的視頻和照片。此外,它將被用作開發(fā)更多技術來檢測假文本并識別其來源。
達爾帕(Darpa)名為MediFor – Media Forensics的用于檢測深層虛假的新程序正在努力披露操縱者。通過使用語義取證,DARPA計劃解決深造。SemaFor程序旨在開發(fā)一種分析媒體的工具。它包括使用告訴算法是否已被控制的算法來檢測該方法。
Google與Deepfake的斗爭:
Google還在努力開發(fā)文本到語音轉換工具,以設計出可以幫助驗證說話者的新工具。Google在使用一種完全不同的方法,他們在使用Deepfake來對抗Deepfake。Google在其中一篇文章中設定了7條原則,描述了他們?yōu)榇_保用戶信息的安全性和保護性而采取的步驟。
他們的原則之一是:“ 我們將在AI進度和利用方面鞏固我們的安全努力。我們將允許在具有安全保護的情況下進行通知和同意,賦予動畫結構,并在信息利用方面給予真正的直率和權威 ”。這個決定可以幫助他們保存私人信息。
Adobe的面部操作技術:
Adobe開發(fā)了一個系統(tǒng),該系統(tǒng)將允許作者和發(fā)布者將詳細信息附加到內(nèi)容上,以告知創(chuàng)建該內(nèi)容的時間和地點。Adobe創(chuàng)始人Richard Zhang表示:“ 在這個世界上,很難通過獲取數(shù)字化來確保我們使用的信息。” Adobe正在開發(fā)識別面部操作的方法。Adobe的神經(jīng)網(wǎng)絡以99%的準確率檢測到了假臉。而人眼可以吸收其53%的光線。以后,該工具可以將圖像轉換為舊格式。
深度檢測挑戰(zhàn)
檢測深度欺詐的挑戰(zhàn)是一項全球競賽,該競賽與許多全球知名公司一起使用AI并與深度欺詐作斗爭。這項比賽邀請世界各地的參與者加入他們的行列,并與他們一起克服這一日益嚴重的問題。這項挑戰(zhàn)將持續(xù)到2020年3月。
現(xiàn)實防御者–防御工具
據(jù)AI Foundation總裁兼首席技術官Rob Meadows稱,該工具將是您的監(jiān)護人。Reality Defender是Web程序的模塊,可以類似的方式用作電話的應用程序。它使用一組已更改的定位器在屏幕上顯示所有內(nèi)容,然后向客戶發(fā)出有關平衡媒體的警報。他們有許多Beta測試人員正在工作,并為他們提供有關此應用程序的所有更新。該工具將于2020年推出。
深造假的未來
打擊假冒產(chǎn)品并不容易。上面提到的工具在將來與Deepfake對抗時將非常有用。盡管我們將產(chǎn)生更多的方法來克服此類騙局,但他們會找到更好的方法使騙局更加真實。這些騙局只能通過更新這些工具并確保定期例行維護以獲得有效和準確的結果來進行控制。
科學家現(xiàn)在正在研究語音和面部差異。真實視頻具有更好和明確的質量,另一方面,被操縱的視頻存在質量問題,無法訪問真實視頻中真實人物所具有的正確3D方向。Deepfakes開發(fā)出簡單的2D圖像。奧爾巴尼大學的研究小組正在介紹一種算法,該算法可以顯示人的鼻子指向的方式。人工智能和其他科學技術必須領先于他們?yōu)閷辜倜爱a(chǎn)品而想出的一切。