Face book公司今天更新了其流行的人工智能軟件框架Py Torch,支持新功能,使更無縫的人工智能模型部署到移動設(shè)備。
Py Torch被開發(fā)人員用來研究和構(gòu)建軟件應(yīng)用程序的人工智能模型,然后由于它與領(lǐng)先的公共云平臺的集成,這些應(yīng)用程序直接投入生產(chǎn)。 Py Torch最初是由Face book的AI研究小組作為編程語言Python的函數(shù)機器學(xué)習(xí)庫構(gòu)建的。
它主要用于深度學(xué)習(xí),這是機器學(xué)習(xí)的一個分支,試圖模仿人腦的功能方式。 它在語言翻譯、圖像和語音識別等領(lǐng)域取得了重大突破。
在移動設(shè)備上運行機器學(xué)習(xí)的能力是很重要的,因為應(yīng)用程序可以從具有較低的延遲中顯著受益。 如果應(yīng)用程序可以自己處理數(shù)據(jù)而不將其發(fā)送到云中,那么它畢竟會使一切運行更加順利。
這就是Face book在最新發(fā)布的Py Torch中試圖解決的問題,支持從Python到部署在iOS和Android上的“端到端工作流”。 Face book的Py Torch團(tuán)隊在一篇博客文章中表示,這仍然是一個實驗特性,還有很多工作要做,以提高機器學(xué)習(xí)模型在移動中央處理單元和圖形處理單元上的性能。
第二個實驗特性旨在在構(gòu)建機器學(xué)習(xí)應(yīng)用程序時更有效地利用服務(wù)器端和設(shè)備上的計算資源。 增加對“八位模型量化”的支持是為了提高推理過程中的性能,即當(dāng)一個經(jīng)過訓(xùn)練的機器學(xué)習(xí)模型得出結(jié)論或進(jìn)行預(yù)測時。 量化是指用于在降低精度的情況下執(zhí)行計算和存儲的技術(shù)。
“為了支持在服務(wù)器和邊緣設(shè)備上更有效地部署,Py火炬1.3現(xiàn)在支持使用熟悉的熱切模式PythonAPI的8位模型量化,”Py火炬團(tuán)隊寫道。
Py Torch還獲得了一種新的工具,名為Captum,該工具旨在幫助開發(fā)人員更好地理解為什么他們的機器學(xué)習(xí)模型得出一定的結(jié)論。
“Captum提供了最先進(jìn)的工具來理解特定神經(jīng)元和層的重要性,并影響模型的預(yù)測,”Py火炬小組寫道。 “Captum的算法包括集成梯度、電導(dǎo)、平滑梯度和VAR梯度以及深度提升。”
其他更新包括發(fā)布探測器2目標(biāo)檢測庫,以幫助計算機視覺研究。 此外,F(xiàn)ace book還宣布啟動一個名為CrypTen的新的基于社區(qū)的研究項目,該項目將探索隱私和安全技術(shù)的實現(xiàn),如安全多方計算、可信執(zhí)行環(huán)境和Py Torch的設(shè)備上計算。
最后,F(xiàn)ace book表示,Py Torch現(xiàn)在支持GoogleCloud的張量處理單元,以便能夠更快速地開發(fā)和訓(xùn)練機器學(xué)習(xí)模型:“當(dāng)組裝成稱為Cloud TPU Pods的多軌ML超級計算機時,這些TPU可以在幾分鐘或幾小時內(nèi)完成ML工作量;在其他系統(tǒng)中,這些工作量以前需要幾天或幾周。
星座研究公司的分析師霍爾格·穆勒(Holger Mueller)告訴硅谷,今天的更新顯示,F(xiàn)ace book在Py Torch及其相關(guān)服務(wù)方面取得了堅實的進(jìn)展。
穆勒說:“但關(guān)鍵問題是,在谷歌的TensorFlow方面,Py Torch的差距有多大? “兩者都在移動目標(biāo),開發(fā)商的采納將提供答案。