Google的研究人員開源了一個新框架,該框架可以在數(shù)千臺機器上擴大人工智能模型的培訓。
谷歌在一份研究論文中指出,這是一個有前途的發(fā)展,因為它應該使AI算法訓練能夠以每秒數(shù)百萬幀的速度執(zhí)行,同時將這樣做的成本降低多達80%。
這種減少可能有助于為那些以前無法與AI等主要參與者競爭的初創(chuàng)公司提供公平的競爭環(huán)境。實際上,在云中訓練復雜的機器學習模型的成本令人驚訝地昂貴。
Synced最近的一份報告發(fā)現(xiàn),華盛頓大學花費了25,000美元來訓練其Grover模型,該模型用于檢測和生成假新聞。同時,OpenAI每小時支付256美元來訓練其GPT-2語言模型,而Google本身花費約6,912美元來訓練其BERT模型來進行自然語言處理任務。
SEED RL構建在TensorFlow 2.0框架之上,并通過利用圖形處理單元和張量處理單元的組合來集中模型推斷。然后使用訓練模型的學習器組件集中執(zhí)行推斷。
目標模型的變量和狀態(tài)信息保持局部狀態(tài),并在過程的每個步驟中將對它們的觀察結果發(fā)送給學習者。SEED RL還使用基于開源通用RPC框架的網(wǎng)絡庫來最大程度地減少延遲。
谷歌的研究人員說,SEED RL的學習器組件可以擴展到數(shù)千個內(nèi)核,而在環(huán)境中采取步驟與在模型上進行推斷以預測下一步操作之間進行迭代的參與者數(shù)量可以擴展到數(shù)千臺機器。