在過去的五年中,人工智能(AI)的使用激增,引發(fā)了有關該主題的幾次新會議。但是,最重要的活動已成為Nvidia的GPU技術會議(GTC),最近的一次活動是在上周在加利福尼亞州圣何塞舉行的。出席人數(shù)高達8,500人,比GTC17多出2,000人。(注:Nvidia是ZK Research的客戶。)
雖然該展會由Nvidia主持,但它已成為行業(yè)展會,正在討論和解決擴展AI方面的一些最大挑戰(zhàn)。
按照GTC的慣例,Nvidia宣布了許多公告。以下是我認為最引人注意的內容,以及CIO應該關心的原因。
GPU計算面臨的挑戰(zhàn)之一是將足夠的數(shù)據(jù)推入GPU中,以使其保持繁忙,尤其是對于多GPU系統(tǒng)而言。通常,在高數(shù)據(jù)負載下,PCI總線速度太慢,因此Nvidia開發(fā)了一種專有互連,將兩個GPU(稱為NVLink)橋接在一起,從而繞過了PCI總線。在GTC18上,Nvidia首次推出了一項名為NVSwitch的創(chuàng)新技術,該技術可使16個GPU通過高速結構連接在一起。
在其主題演講中,首席執(zhí)行官黃仁勛展示了16種GPU系統(tǒng)之一,并開玩笑說它是世界上最大的GPU,因為它有效地創(chuàng)建了一個大型GPU。網(wǎng)絡專業(yè)人員會熟悉該架構,因為這種縱橫制交換矩陣被用作當今大多數(shù)高速交換機的互連,因此被稱為NVSwtich。
CIO為什么要關心:企業(yè)必須分析的數(shù)據(jù)量只會增加。實際上,使用通用對抗網(wǎng)絡(GAN)可使機器生成自己的綜合數(shù)據(jù)。NVSwitch幫助組織將更多的GPU互連在一起,以便數(shù)據(jù)科學家可以處理更大,更復雜的數(shù)據(jù)集。
大約一年前,Nvidia推出了Tesla V100 GPU,它配備了16GB的HBM2內存。該公司在GTC18大會上宣布將立即將總內存增加一倍至32 GB。升級意味著Nvidia現(xiàn)在與其主要競爭對手AMD處于內存平價。V100的性能始終為同類AMD產品吹牛。但是,總內存是它滯后的地方-現(xiàn)在它已經(jīng)縮小了差距。