【TensorFlow】01 TensorFlow簡介與Python基礎(chǔ)
1093
2025-03-31
2.10 GPU服務(wù)器
本書中會大量使用CNN、LSTM和MLP,這些計算量都非常巨大,尤其是CNN幾乎就是CPU殺手。
目前在深度學(xué)習(xí)領(lǐng)域,主流的商用GPU型號是NVIDIA Tesla系列K40、M40以及M60,我們將對比這三款產(chǎn)品的關(guān)鍵性能參數(shù),官方的參數(shù)對比如下:
M60擁有兩個GM204核芯,每個GM204核芯擁有 2048 個計算單元,擁有8G顯存,單精度浮點(diǎn)性能可達(dá) 4.85Tflops。
M40擁有一個GM200核芯,該核芯擁有3072個計算單元,擁有12G顯存,單精度浮點(diǎn)性能可達(dá) 7Tflops。
K40 擁有一個GK110核芯,該核芯擁有2880個計算單元,擁有12G顯存,單精度浮點(diǎn)性能可達(dá)4.29Tflops。
一個M40的計算能力約為一個M60云主機(jī)的1.44倍,但是價格卻超過M60的2倍;而K40云主機(jī)的計算能力不如M60,卻比M60貴,所以從計算能力來講,M60性價比最高。
這里我介紹如何使用某公有云上的M60 GPU服務(wù)器,強(qiáng)烈建議在驗證階段使用按需付費(fèi)的GPU服務(wù)器,最好是按小時計費(fèi),這種比較劃算。
1. 選擇主機(jī)
根據(jù)需要選擇服務(wù)器CPU、內(nèi)存和硬盤等配置,最關(guān)鍵還要選擇GPU,通常Tesla M60足夠我們使用了,如圖2-14所示。
圖2-14 選擇主機(jī)
2. 其他設(shè)置
設(shè)置服務(wù)器名稱以及登錄密碼,如圖2-15所示。
圖2-15 其他設(shè)置
3. 服務(wù)器概況
服務(wù)器安裝完成后,界面顯示使用了一塊GPU Tesla M60,如圖2-16和圖2-17所示。
圖2-16 服務(wù)器概況(一)
圖2-17 服務(wù)器概況(二)
4. 運(yùn)行測試程序
我們在GPU服務(wù)器上運(yùn)行經(jīng)典的使用CNN識別MNIST的例子,這個例子在我的Mac本上訓(xùn)練12輪需要花費(fèi)將近2個小時。我們發(fā)現(xiàn)程序運(yùn)行時加載了CUDA,它是在GPU上運(yùn)行深度學(xué)習(xí)算法的基礎(chǔ):
[root@keras001 ~]# python keras-demo.py
Using TensorFlow backend.
I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcublas.so.8.0 locally
I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcudnn.so.5 locally
I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcufft.so.8.0 locally
I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcuda.so.1 locally
I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcurand.so.8.0 locally
然后我們繼續(xù)觀察,發(fā)現(xiàn)程序提示信息顯示,加載了GPU Tesla M60,內(nèi)存約8G:
I tensorflow/core/common_runtime/gpu/gpu_device.cc:885] Found device 0 with properties:
name: Tesla M60
major: 5 minor: 2 memoryClockRate (GHz) 1.1775
pciBusID 0000:00:15.0
Total memory: 7.93GiB
Free memory: 7.86GiB
I tensorflow/core/common_runtime/gpu/gpu_device.cc:906] DMA: 0
I tensorflow/core/common_runtime/gpu/gpu_device.cc:916] 0:?? Y
運(yùn)行完整的程序大約需要3分鐘,此速度完勝了我的Mac本。
5. 手工安裝深度學(xué)習(xí)庫
有時候需要根據(jù)軟硬件環(huán)境自己選擇安裝對應(yīng)的深度學(xué)習(xí)庫,其中最重要的是看cuDNN和CUDA的版本,查看服務(wù)器的cuDNN和CUDA版本的方法為:
#CUDA 版本
cat /usr/local/cuda/version.txt
#cuDNN 版本
cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2
#或者 cat /usr/include/cudnn.h | grep CUDNN_MAJOR -A 2
AI GPU加速云服務(wù)器
版權(quán)聲明:本文內(nèi)容由網(wǎng)絡(luò)用戶投稿,版權(quán)歸原作者所有,本站不擁有其著作權(quán),亦不承擔(dān)相應(yīng)法律責(zé)任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實(shí)的內(nèi)容,請聯(lián)系我們jiasou666@gmail.com 處理,核實(shí)后本網(wǎng)站將在24小時內(nèi)刪除侵權(quán)內(nèi)容。
版權(quán)聲明:本文內(nèi)容由網(wǎng)絡(luò)用戶投稿,版權(quán)歸原作者所有,本站不擁有其著作權(quán),亦不承擔(dān)相應(yīng)法律責(zé)任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實(shí)的內(nèi)容,請聯(lián)系我們jiasou666@gmail.com 處理,核實(shí)后本網(wǎng)站將在24小時內(nèi)刪除侵權(quán)內(nèi)容。