午夜视频在线网站,日韩视频精品在线,中文字幕精品一区二区三区在线,在线播放精品,1024你懂我懂的旧版人,欧美日韩一级黄色片,一区二区三区在线观看视频

分享

Google谷歌第四代定制AI芯片TPU v4 Pods整合算力及性能詳解

 新用戶8447VjsA 2021-05-20

Google今天正式發(fā)布了其第四代人工智能TPU v4 AI芯片,其速度達到了TPU v3的2.7被。Google實際上已經(jīng)于2020年就開始在自己的數(shù)據(jù)中心中使用了新的TPU v4。通過整合4096個TPU v4芯片成一個TPU v4 Pod,一個Pod性能就達到世界第一超算“富岳”的兩倍。這些算力可能在今年晚些時候向Google Cloud用戶開放此功能。且谷歌希望未來可能應(yīng)用于量子計算。


Google TPU系列研發(fā)

Google于2016年宣布了其首款內(nèi)部定制的定制AI芯片。

與傳統(tǒng)的CPU和GPU組合(用于訓(xùn)練和部署AI模型的最常見架構(gòu))相比,第一款TPU ASIC提供了“數(shù)量級”更高的性能。

TPU V2于2018年上市,TPU V3于2019年上市,TPU v4于2020年推出。

借助TPU v3,這些服務(wù)器的機架需要大量的電源,以至于Google必須對其數(shù)據(jù)中心進行改造以支持液體冷卻,這比傳統(tǒng)的風(fēng)冷系統(tǒng)具有更高的功率密度。

而今,在比TPU v3性能提高2.7倍的基礎(chǔ)上再整合4096個TPU v4為一個TPU v4 Pod,許多Pod再組成TPU v4 Pods,以提供超強的算力。

除了將這些系統(tǒng)用于自己的AI應(yīng)用程序(例如搜索建議,語言翻譯或語音助手)外,Google還將TPU基礎(chǔ)設(shè)施(包括整個TPU吊艙)以云的方式(付費)開放給Google Cloud客戶。

1 TPU v4 Pod 整合算力 = 2 富岳

在其I/O開發(fā)者大會上,Google今天(美國時間5月18日)宣布了其下一代定制的張量處理單元(TPU)人工智能芯片。這是TPU芯片的第四代產(chǎn)品,Google稱其速度是上一版本的兩倍。正如Google首席執(zhí)行官桑達爾·皮查伊所指出的,這些芯片整合了4096個TPU v4,一個pod就可以提供超過一個exaflop(每秒百億億次浮點運算)的AI計算能力,達到目前全球最快的超級計算機“富岳”的兩倍性能。

Google使用定制芯片為其自己的許多機器學(xué)習(xí)服務(wù)提供動力,但與此同時它也將把這最新一代產(chǎn)品作為其Google云平臺的一部分提供給開發(fā)者。

"這是我們在Google部署過的最快的系統(tǒng),對我們來說是歷史性的里程碑,"Google CEO桑達爾·皮查伊說。"以前要想獲得1個exaflop的算力,通常需要建立一個定制的超級計算機,但我們今天已經(jīng)部署了許多這樣的計算機,很快就會在我們的數(shù)據(jù)中心有幾十個TPUv4 pods,其中許多將以90%或接近90%的無碳能源運行。而我們的TPUv4 pods將在今年晚些時候提供給我們的云客戶"。

TPU是Google的第一批定制芯片之一,當(dāng)包括微軟在內(nèi)的其他公司決定為其機器學(xué)習(xí)服務(wù)采用更靈活的FPGA時,Google很早就在這些定制芯片上下了賭注。雖然它們的開發(fā)時間稍長,而且隨著技術(shù)的變化很快就會過時,但用于特定場景的運算時可以提供明顯更好的性能。

發(fā)布會上,Google還展示了其量子數(shù)據(jù)中心,盡管目前相關(guān)研究仍停留于早期階段,但谷歌顯然希望在未來有朝一日夢想成真。基于目前的材料和實驗場所限制,量子計算必須在極低的超導(dǎo)溫度下運行。

或用于量子計算

發(fā)布會上,Google還展示了其量子數(shù)據(jù)中心,盡管目前相關(guān)研究仍停留于早期階段,但谷歌顯然希望在未來有朝一日夢想成真?;谀壳暗牟牧虾蛯嶒瀳鏊拗?,量子計算必須在極低的超導(dǎo)溫度下運行。

Google TPU v4 性能詳解:打破MLPerf中的AI性能記錄

機器學(xué)習(xí)(ML)模型的快速訓(xùn)練對于提供以前無法實現(xiàn)的新產(chǎn)品,服務(wù)和研究突破的研究和工程團隊至關(guān)重要。在Google,最近啟用ML的功能包括更有用的搜索結(jié)果和一個可以翻譯100種不同語言的ML模型。

行業(yè)標(biāo)準(zhǔn)MLPerf基準(zhǔn)測試對比的最新結(jié)果表明,谷歌已打造出世界上最快的ML訓(xùn)練超級計算機。Google使用此超級計算機以及最新的Tensor處理單元(TPU)芯片,在八項MLPerf基準(zhǔn)測試中的六項中創(chuàng)造了性能記錄。

圖1:與任何可用性類別中最快的非Google提交相比,Google最好的MLPerf Training v0.7研究提交速度有所提高。不論系統(tǒng)大小如何,總訓(xùn)練時間都將比較標(biāo)準(zhǔn)化,而系統(tǒng)大小介于8到4096個芯片之間。

使用TensorFlow,JAX和Lingvo中的ML模型實現(xiàn)實現(xiàn)了這些結(jié)果。在不到30秒的時間里,八個模型中的四個從零開始接受了訓(xùn)練。為了正確理解這一點,考慮到在2015年,花了超過三周的時間在可用的最先進的硬件加速器上訓(xùn)練其中一種模型。谷歌最新的TPU超級計算機可以在五年后將相同模型的速度提高近五個數(shù)量級。

在此文中,我們將研究對比的一些細節(jié),提交如何實現(xiàn)如此高的性能,以及它們對模型訓(xùn)練速度的所有意義。

MLPerf模型

選擇MLPerf模型來代表整個行業(yè)和學(xué)術(shù)界常見的尖端機器學(xué)習(xí)工作負載。上圖中,這是每個MLPerf模型的更多詳細信息:

DLRM代表了排名和推薦模型,這些模型是從媒體到旅行到電子商務(wù)等在線業(yè)務(wù)的核心

Transformer是自然語言處理(包括BERT)的最新發(fā)展浪潮的基礎(chǔ)

BERT使Google搜索獲得了“過去五年中最大的飛躍”

ResNet-50是廣泛用于圖像分類的模型

SSD是一種對象檢測模型,其重量很輕,可以在移動設(shè)備上運行

Mask R-CNN是廣泛使用的圖像分割模型,可用于自主導(dǎo)航,醫(yī)學(xué)成像和其他領(lǐng)域(您可以在Colab中進行實驗)

除了上述最大規(guī)模的行業(yè)領(lǐng)先結(jié)果之外,Google還使用Google Cloud Platform上的TensorFlow提供了MLPerf提交,供今天的企業(yè)使用。

世界上最快的ML訓(xùn)練超級計算機

Google在本次MLPerf訓(xùn)練回合中使用的超級計算機是Cloud TPU v3 Pod的四倍,后者在之前的比賽中創(chuàng)下了三項記錄。該系統(tǒng)包括4096個TPU v3芯片和數(shù)百個CPU主機,所有這些都通過超快速,超大規(guī)模的定制互連進行連接??傮w而言,該系統(tǒng)可提供430多個PFLOP峰值性能。

表1:所有這些MLPerf提交的內(nèi)容都是在Google新型ML超級計算機上以33秒或更短的時間從零開始進行訓(xùn)練的。


使用TensorFlow,JAX,Lingvo和XLA進行大規(guī)模訓(xùn)練

使用數(shù)千個TPU芯片訓(xùn)練復(fù)雜的ML模型需要在TensorFlow,JAX,Lingvo和XLA中結(jié)合算法技術(shù)和優(yōu)化。

XLA是支持所有Google MLPerf提交的基礎(chǔ)編譯器技術(shù),TensorFlow是Google的端到端開源機器學(xué)習(xí)框架,Lingvo是使用TensorFlow構(gòu)建的序列模型的高級框架,而JAX是一個基于可組合功能轉(zhuǎn)換的以研究為中心的新框架。

上面的記錄設(shè)置規(guī)模依賴于模型并行性,按比例縮放的批次歸一化,有效的計算圖啟動以及基于樹的權(quán)重初始化。

上表中的所有TensorFlow,JAX和Lingvo提交(ResNet-50,BERT,SSD和Transformer的實現(xiàn))都在2048或4096 TPU芯片上進行了訓(xùn)練,每個不到33秒。

TPU v4 vs TPU v3,性能提高2.7倍

Google的第四代TPU ASIC提供了TPU v3的矩陣乘法TFLOP的兩倍以上,顯著提高了內(nèi)存帶寬,并且在互連技術(shù)方面取得了進步。Google的TPU v4 MLPerf提交利用了這些新的硬件功能以及互補的編譯器和建模優(yōu)勢。結(jié)果表明,在上一屆MLPerf培訓(xùn)比賽中,TPU v4比TPU v3的性能平均提高了2.7倍,達到了類似的規(guī)模。

圖2:Google的MLPerf培訓(xùn)v0.7中的TPU v4結(jié)果研究提交的結(jié)果,與Google的MLPerf培訓(xùn)v0.6可用提交中的TPU v3結(jié)果相比,平均提高了2.7倍,在相同規(guī)模的

64核心芯片條件下。此性能改進歸功于TPU v4中的硬件創(chuàng)新以及軟件的改進。

沒有有關(guān)節(jié)點、體系結(jié)構(gòu)或設(shè)計的信息,但可以假定它們位于7nm類節(jié)點上。同樣,F(xiàn)LOP中只有2倍,而性能則是2.7倍,這意味著它們在提取原始Flop方面更加有效。

Google已經(jīng)在使用這項新技術(shù),并將很快擴大其使用范圍

Google實際上已經(jīng)在使用新的TPU v4。該公司表示已經(jīng)在自己的數(shù)據(jù)中心中使用了該技術(shù)。至于何時可以訪問Google Cloud客戶,這家搜索巨頭尚未提供確切的日期。但它確實說,它們將在“今年晚些時候”上市。

該公司表示,目前,它將很快在其數(shù)據(jù)中心運行數(shù)十個最新的Pod。并指出,其中許多將“以或接近” 90%的無碳能源運行。至少就Google自身的運營而言,使新系統(tǒng)也成為最高效的系統(tǒng)之一。

參考來源:

https://cloud.google.com/blog/products/ai-machine-learning/google-breaks-ai-performance-records-in-mlperf-with-worlds-fastest-training-supercomputer

https://www.cnbeta.com/articles/tech/1129595.htm

https://www./machine-learning/google-more-doubles-its-ai-chip-performance-tpu-v4

-END-

    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多