pytorch cuda上tensor的定義 以及減少cpu的操作詳解
cuda上tensor的定義
a = torch.ones(1000,1000,3).cuda()
某一gpu上定義
cuda1 = torch.device('cuda:1')
b = torch.randn((1000,1000,1000),device=cuda1)
刪除某一變量
del a
在cpu定義tensor然后轉(zhuǎn)到gpu
torch.zeros().cuda()
直接在gpu上定義,這樣就減少了cpu的損耗
torch.cuda.FloatTensor(batch_size, self.hidden_dim, self.height, self.width).fill_(0)
補(bǔ)充知識(shí):pytorch cuda.FloatTensor->FloatTensor
錯(cuò)誤類型:
RuntimeError: Input type (torch.cuda.FloatTensor) and weight type (torch.FloatTensor)
定義殘差塊時(shí)定義在model的外面,在使用gpu進(jìn)行訓(xùn)練的時(shí)候,殘差塊的參數(shù)是torch.FloatTensor類型,
雖然使用了model.cuda(),但是只對(duì)model里面的參數(shù)在gpu部分,所以把殘差塊對(duì)應(yīng)的操作都在model的__init__(),
重新定義,即可解決問(wèn)題
以上這篇pytorch cuda上tensor的定義 以及減少cpu的操作詳解就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
- 安裝pytorch報(bào)錯(cuò)torch.cuda.is_available()=false問(wèn)題的解決過(guò)程
- PyTorch?device與cuda.device用法介紹
- 將pytorch的網(wǎng)絡(luò)等轉(zhuǎn)移到cuda
- pytorch 如何用cuda處理數(shù)據(jù)
- pytorch model.cuda()花費(fèi)時(shí)間很長(zhǎng)的解決
- pytorch中.to(device) 和.cuda()的區(qū)別說(shuō)明
- PyTorch CUDA環(huán)境配置及安裝的步驟(圖文教程)
- PyTorch中的CUDA的操作方法
相關(guān)文章
Python .py生成.pyd文件并打包.exe 的注意事項(xiàng)說(shuō)明
這篇文章主要介紹了Python .py生成.pyd文件并打包.exe 的注意事項(xiàng)說(shuō)明,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2021-03-03
django restframework序列化字段校驗(yàn)規(guī)則
本文主要介紹了django restframework序列化字段校驗(yàn)規(guī)則,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2022-05-05
Tornado Application的實(shí)現(xiàn)
本文主要介紹了Tornado Application的實(shí)現(xiàn),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2023-05-05
python雙向鏈表實(shí)現(xiàn)實(shí)例代碼
python雙向鏈表和單鏈表類似,只不過(guò)是增加了一個(gè)指向前面一個(gè)元素的指針,下面的代碼實(shí)例了python雙向鏈表的方法2013-11-11
使用Python創(chuàng)建一個(gè)撲克牌生成器
撲克牌是一種廣泛使用的娛樂(lè)工具,通常用于各種紙牌游戲,本文給大家介紹了如何使用Python創(chuàng)建一個(gè)撲克牌生成器,需要的朋友可以參考下2025-04-04

