Facebook的PyTorch AI框架增加了對移動應(yīng)用部署的支持

2020-04-02 10:59:01    來源:新經(jīng)網(wǎng)    作者:馮思韻

Face book公司今天更新了其流行的人工智能軟件框架Py Torch,支持新功能,使更無縫的人工智能模型部署到移動設(shè)備。

Facebook的PyTorch AI框架增加了對移動應(yīng)用部署的支持

Py Torch被開發(fā)人員用來研究和構(gòu)建軟件應(yīng)用程序的人工智能模型,然后由于它與領(lǐng)先的公共云平臺的集成,這些應(yīng)用程序直接投入生產(chǎn)。 Py Torch最初是由Face book的AI研究小組作為編程語言Python的函數(shù)機器學(xué)習(xí)庫構(gòu)建的。

它主要用于深度學(xué)習(xí),這是機器學(xué)習(xí)的一個分支,試圖模仿人腦的功能方式。 它在語言翻譯、圖像和語音識別等領(lǐng)域取得了重大突破。

在移動設(shè)備上運行機器學(xué)習(xí)的能力是很重要的,因為應(yīng)用程序可以從具有較低的延遲中顯著受益。 如果應(yīng)用程序可以自己處理數(shù)據(jù)而不將其發(fā)送到云中,那么它畢竟會使一切運行更加順利。

這就是Face book在最新發(fā)布的Py Torch中試圖解決的問題,支持從Python到部署在iOS和Android上的“端到端工作流”。 Face book的Py Torch團(tuán)隊在一篇博客文章中表示,這仍然是一個實驗特性,還有很多工作要做,以提高機器學(xué)習(xí)模型在移動中央處理單元和圖形處理單元上的性能。

Facebook的PyTorch AI框架增加了對移動應(yīng)用部署的支持

第二個實驗特性旨在在構(gòu)建機器學(xué)習(xí)應(yīng)用程序時更有效地利用服務(wù)器端和設(shè)備上的計算資源。 增加對“八位模型量化”的支持是為了提高推理過程中的性能,即當(dāng)一個經(jīng)過訓(xùn)練的機器學(xué)習(xí)模型得出結(jié)論或進(jìn)行預(yù)測時。 量化是指用于在降低精度的情況下執(zhí)行計算和存儲的技術(shù)。

“為了支持在服務(wù)器和邊緣設(shè)備上更有效地部署,Py火炬1.3現(xiàn)在支持使用熟悉的熱切模式PythonAPI的8位模型量化,”Py火炬團(tuán)隊寫道。

Py Torch還獲得了一種新的工具,名為Captum,該工具旨在幫助開發(fā)人員更好地理解為什么他們的機器學(xué)習(xí)模型得出一定的結(jié)論。

“Captum提供了最先進(jìn)的工具來理解特定神經(jīng)元和層的重要性,并影響模型的預(yù)測,”Py火炬小組寫道。 “Captum的算法包括集成梯度、電導(dǎo)、平滑梯度和VAR梯度以及深度提升。”

其他更新包括發(fā)布探測器2目標(biāo)檢測庫,以幫助計算機視覺研究。 此外,F(xiàn)ace book還宣布啟動一個名為CrypTen的新的基于社區(qū)的研究項目,該項目將探索隱私和安全技術(shù)的實現(xiàn),如安全多方計算、可信執(zhí)行環(huán)境和Py Torch的設(shè)備上計算。

最后,F(xiàn)ace book表示,Py Torch現(xiàn)在支持GoogleCloud的張量處理單元,以便能夠更快速地開發(fā)和訓(xùn)練機器學(xué)習(xí)模型:“當(dāng)組裝成稱為Cloud TPU Pods的多軌ML超級計算機時,這些TPU可以在幾分鐘或幾小時內(nèi)完成ML工作量;在其他系統(tǒng)中,這些工作量以前需要幾天或幾周。

Facebook的PyTorch AI框架增加了對移動應(yīng)用部署的支持

星座研究公司的分析師霍爾格·穆勒(Holger Mueller)告訴硅谷,今天的更新顯示,F(xiàn)ace book在Py Torch及其相關(guān)服務(wù)方面取得了堅實的進(jìn)展。

穆勒說:“但關(guān)鍵問題是,在谷歌的TensorFlow方面,Py Torch的差距有多大? “兩者都在移動目標(biāo),開發(fā)商的采納將提供答案。

鄭重聲明:本文版權(quán)歸原作者所有,轉(zhuǎn)載文章僅為傳播更多信息之目的,如作者信息標(biāo)記有誤,請第一時間聯(lián)系我們修改或刪除,多謝。