如今,人工智能和機(jī)器學(xué)習(xí)已成為技術(shù)乃至主流新聞中的熱門話題,但大多數(shù)人都將這些計(jì)算機(jī)在幕后所做的工作視為理所當(dāng)然。他們驚人的壯舉需要以僅計(jì)算機(jī)具備的速度瀏覽數(shù)以萬(wàn)計(jì)的相關(guān)數(shù)據(jù)。反過(guò)來(lái),這意味著AI需要學(xué)習(xí)成千上萬(wàn)的數(shù)據(jù),而情況并非總是如此。NVIDIA的研究部門現(xiàn)在在其創(chuàng)性對(duì)抗網(wǎng)絡(luò)或GAN中擁有一個(gè)里程碑,即使在呈現(xiàn)非常小的數(shù)據(jù)集的情況下,它也可以使AI進(jìn)行學(xué)習(xí)。
盡管GAN AI模型的名字叫“對(duì)抗性”,但實(shí)際上它使用了兩個(gè)合作網(wǎng)絡(luò)。例如,生成器創(chuàng)建圖像,而鑒別器將其與參考圖像進(jìn)行比較,以評(píng)估它們是否與樣式,對(duì)象或內(nèi)容匹配。為此,鑒別器通常會(huì)饋入50,000到100,000范圍內(nèi)的訓(xùn)練圖像,因?yàn)槿绻欢啵蜁?huì)創(chuàng)建一個(gè)鑒別器,該鑒別器只會(huì)記住參考文獻(xiàn),而無(wú)法區(qū)分合成圖像。
這種現(xiàn)象稱為過(guò)擬合,可以部分地通過(guò)所謂的數(shù)據(jù)增強(qiáng)來(lái)解決,該方法僅涉及隨機(jī)旋轉(zhuǎn),調(diào)整大小,裁剪或翻轉(zhuǎn)圖像以擴(kuò)展參考數(shù)量。但是,這會(huì)創(chuàng)建一個(gè)生成器,該生成器將學(xué)習(xí)模仿變形的圖像,而不是學(xué)習(xí)如何正確地合成樣式和主題。
NVIDIA Research的自適應(yīng)數(shù)據(jù)增強(qiáng)或ADA試圖通過(guò)在不同數(shù)據(jù)點(diǎn)之間分布數(shù)據(jù)增強(qiáng)來(lái)解決這兩個(gè)問題。研究人員聲稱,這使他們能夠創(chuàng)建一個(gè)新的StyleGAN2模型,該模型能夠以比傳統(tǒng)GAN所需的訓(xùn)練數(shù)據(jù)小10到20倍的訓(xùn)練數(shù)據(jù)集學(xué)習(xí)藝術(shù)風(fēng)格。
NVIDIA Research的新AI的應(yīng)用不僅限于為濾鏡合成藝術(shù)風(fēng)格,Adobe最有可能會(huì)感興趣的是增強(qiáng)已經(jīng)基于第一代StyleGAN的Photoshop的神經(jīng)濾鏡。當(dāng)掃描或樣本太小而無(wú)法像新型疾病或病癥一樣有效時(shí),該AI也將能夠從醫(yī)學(xué)圖像中學(xué)習(xí)。