pytorch查看torch.Tensor和model是否在CUDA上的實(shí)例
今天訓(xùn)練faster R-CNN時(shí),發(fā)現(xiàn)之前跑的很好的程序(是指在運(yùn)行程序過程中,顯卡利用率能夠一直維持在70%以上),今天看的時(shí)候,顯卡利用率很低,所以在想是不是我的訓(xùn)練數(shù)據(jù)torch.Tensor或者模型model沒有加載到GPU上訓(xùn)練,于是查找如何查看tensor和model所在設(shè)備的命令。
import torch import torchvision.models as models model=models.vgg11(pretrained=False) print(next(model.parameters()).is_cuda)#False data=torch.ones((5,10)) print(data.device)#cpu
上述是我在自己的筆記本上(顯然沒有GPU)的打印情況。
上次被老板教授了好久,出現(xiàn)西安卡利用率一直很低的情況千萬不能認(rèn)為它不是問題,而一定要想辦法解決。比如可以在加載訓(xùn)練圖像的過程中(__getitem__方法中)設(shè)定數(shù)據(jù)增強(qiáng)過程中每個(gè)步驟的時(shí)間點(diǎn),對(duì)每個(gè)步驟的時(shí)間點(diǎn)進(jìn)行打印,判斷花費(fèi)時(shí)間較多的是哪些步驟,然后嘗試對(duì)代碼進(jìn)行優(yōu)化,因?yàn)閠orhc.utils.data中的__getitem__方法是由CPU上的一個(gè)num_workers執(zhí)行一遍的,如果__getitem__方法執(zhí)行太慢,則會(huì)導(dǎo)致IO速度變慢,即GPU在大多數(shù)時(shí)間都處于等待CPU讀取數(shù)據(jù)并處理成torch.cuda.tensor的過程,一旦CPU讀取一個(gè)batch size的數(shù)據(jù)完畢,GPU很快就計(jì)算結(jié)束,從而看到的現(xiàn)象是:GPU在絕大多數(shù)時(shí)間都處于利用率很低的狀態(tài)。
所以我總結(jié)的是,如果GPU顯卡利用率比較低,最可能的就是CPU數(shù)據(jù)IO耗費(fèi)時(shí)間太多(我之前就是由于數(shù)據(jù)增強(qiáng)的裁剪過程為了裁剪到object使用了for循環(huán),導(dǎo)致這一操作很耗時(shí)間),還有可能的原因是數(shù)據(jù)tensor或者模型model根本就沒有加載到GPU cuda上面。其實(shí)還有一種可能性很小的原因就是,在網(wǎng)絡(luò)前向傳播的過程中某些特殊的操作對(duì)GPU的利用率不高,當(dāng)然指的是除了網(wǎng)絡(luò)(卷積,全連接)操作之外的其他的對(duì)于tensor的操作,比如我之前的faster R-CNN顯卡利用率低就是因?yàn)镽PN中的NMS算法速度太慢,大約2-3秒一張圖,雖然這時(shí)候tensor特征圖在CUDA上面,而且NMS也使用了CUDA kernel編譯后的代碼,也就是說NMS的計(jì)算仍然是利用的CPU,但是由于NMS算法并行度不高,所以對(duì)于GPU的利用不多,導(dǎo)致了顯卡利用率低,之前那個(gè)是怎么解決的呢?
哈哈,說到底還是環(huán)境的問題非常重要,之前的faster R-CNN代碼在python2 CUDA9.0 pytorch 0.4.0 環(huán)境下編譯成功我就沒有再仔細(xì)糾結(jié)環(huán)境問題,直接運(yùn)行了,直到后來偶然換成python3 CUDA9.0 pytorch 0.4.1 環(huán)境才極大地提高了顯卡利用率,并且通過設(shè)置了幾十個(gè)打印時(shí)間點(diǎn)之后發(fā)現(xiàn),真的就是NMS的速度現(xiàn)在基本能維持在0.02-0.2數(shù)量級(jí)范圍內(nèi)。
下圖分別表示之前(顯卡利用率很低)時(shí)的NMS處理單張圖像所消耗的時(shí)間(之所以會(huì)有長有短是因?yàn)槲抑С植煌直媛实膱D像訓(xùn)練),后面一張圖是GPU利用率一直能維持在很高的情況下NMS處理時(shí)間,由于數(shù)據(jù)增強(qiáng)部分的代碼完全沒有修改,故而換了環(huán)境之后我就沒有再打印數(shù)據(jù)增強(qiáng)每個(gè)步驟所消耗的時(shí)間了。


以上這篇pytorch查看torch.Tensor和model是否在CUDA上的實(shí)例就是小編分享給大家的全部內(nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
django自定義非主鍵自增字段類型詳解(auto increment field)
這篇文章主要介紹了django自定義非主鍵自增字段類型詳解(auto increment field),具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2020-03-03
Python Django 頁面上展示固定的頁碼數(shù)實(shí)現(xiàn)代碼
這篇文章主要介紹了Python Django 頁面上展示固定的頁碼數(shù)實(shí)現(xiàn)代碼,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2019-08-08
Python實(shí)現(xiàn)數(shù)據(jù)可視化大屏布局的示例詳解
數(shù)據(jù)可視化大屏展示需求無疑是對(duì)數(shù)據(jù)分析結(jié)果最好的詮釋,能夠使得別人能夠輕松的就理解我們的數(shù)據(jù)意圖。本文將通過pyecharts模塊來實(shí)現(xiàn),感興趣的可以了解一下2022-11-11
python字典dict中常用內(nèi)置函數(shù)的使用
本文主要介紹了python字典dict中常用內(nèi)置函數(shù)的使用,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2023-04-04
Python中eval帶來的潛在風(fēng)險(xiǎn)代碼分析
這篇文章主要介紹了Python中eval帶來的潛在風(fēng)險(xiǎn)代碼分析,具有一定借鑒價(jià)值,需要的朋友可以參考下。2017-12-12
Python2隨機(jī)數(shù)列生成器簡單實(shí)例
這篇文章主要介紹了Python2隨機(jī)數(shù)列生成器,結(jié)合簡單實(shí)例形式分析了Python基于random模塊操作隨機(jī)數(shù)的相關(guān)實(shí)現(xiàn)技巧,需要的朋友可以參考下2017-09-09
50行Python代碼實(shí)現(xiàn)人臉檢測(cè)功能
現(xiàn)在的人臉識(shí)別技術(shù)已經(jīng)得到了非常廣泛的應(yīng)用,支付領(lǐng)域、身份驗(yàn)證、美顏相機(jī)里都有它的應(yīng)用。下面小編給大家?guī)砹嘶?0行Python代碼實(shí)現(xiàn)人臉檢測(cè)功能,一起看看吧2018-01-01

