解決Pytorch自定義層出現(xiàn)多Variable共享內(nèi)存錯(cuò)誤問題
錯(cuò)誤信息:
RuntimeError: in-place operations can be only used on variables that don't share storage with any other variables, but detected that there are 4 objects sharing it
自動(dòng)求導(dǎo)是很方便, 但是想想, 如果兩個(gè)Variable共享內(nèi)存, 再對這個(gè)共享的內(nèi)存的數(shù)據(jù)進(jìn)行修改, 就會(huì)引起錯(cuò)誤!
一般是由于 inplace操作或是indexing或是轉(zhuǎn)置. 這些都是共享內(nèi)存的.
@staticmethod
def backward(ctx, grad_output):
ind_lst = ctx.ind_lst
flag = ctx.flag
c = grad_output.size(1)
grad_former_all = grad_output[:, 0:c//3, :, :]
grad_latter_all = grad_output[:, c//3: c*2//3, :, :]
grad_swapped_all = grad_output[:, c*2//3:c, :, :]
spatial_size = ctx.h * ctx.w
W_mat_all = Variable(ctx.Tensor(ctx.bz, spatial_size, spatial_size).zero_())
for idx in range(ctx.bz):
W_mat = W_mat_all.select(0,idx)
for cnt in range(spatial_size):
indS = ind_lst[idx][cnt]
if flag[cnt] == 1:
# 這里W_mat是W_mat_all通過select出來的, 他們共享內(nèi)存.
W_mat[cnt, indS] = 1
W_mat_t = W_mat.t()
grad_swapped_weighted = torch.mm(W_mat_t, grad_swapped_all[idx].view(c//3, -1).t())
grad_swapped_weighted = grad_swapped_weighted.t().contiguous().view(1, c//3, ctx.h, ctx.w)
grad_latter_all[idx] = torch.add(grad_latter_all[idx], grad_swapped_weighted.mul(ctx.triple_w))
由于 這里W_mat是W_mat_all通過select出來的, 他們共享內(nèi)存. 所以當(dāng)對這個(gè)共享的內(nèi)存進(jìn)行修改W_mat[cnt, indS] = 1, 就會(huì)出錯(cuò). 此時(shí)我們可以通過clone()將W_mat和W_mat_all獨(dú)立出來. 這樣的話, 梯度也會(huì)通過 clone()操作將W_mat的梯度正確反傳到W_mat_all中.
@staticmethod
def backward(ctx, grad_output):
ind_lst = ctx.ind_lst
flag = ctx.flag
c = grad_output.size(1)
grad_former_all = grad_output[:, 0:c//3, :, :]
grad_latter_all = grad_output[:, c//3: c*2//3, :, :]
grad_swapped_all = grad_output[:, c*2//3:c, :, :]
spatial_size = ctx.h * ctx.w
W_mat_all = Variable(ctx.Tensor(ctx.bz, spatial_size, spatial_size).zero_())
for idx in range(ctx.bz):
# 這里使用clone了
W_mat = W_mat_all.select(0,idx).clone()
for cnt in range(spatial_size):
indS = ind_lst[idx][cnt]
if flag[cnt] == 1:
W_mat[cnt, indS] = 1
W_mat_t = W_mat.t()
grad_swapped_weighted = torch.mm(W_mat_t, grad_swapped_all[idx].view(c//3, -1).t())
grad_swapped_weighted = grad_swapped_weighted.t().contiguous().view(1, c//3, ctx.h, ctx.w)
# 這句話刪了不會(huì)出錯(cuò), 加上就吹出錯(cuò)
grad_latter_all[idx] = torch.add(grad_latter_all[idx], grad_swapped_weighted.mul(ctx.triple_w))
但是現(xiàn)在卻出現(xiàn) 4個(gè)objects共享內(nèi)存. 如果將最后一句話刪掉, 那么則不會(huì)出錯(cuò).
如果沒有最后一句話, 我們看到
grad_swapped_weighted = torch.mm(W_mat_t, grad_swapped_all[idx].view(c//3, -1).t())
grad_swapped_weighted = grad_swapped_weighted.t().contiguous().view(1, c//3, ctx.h, ctx.w)
grad_swapped_weighted 一個(gè)新的Variable, 因此并沒有和其他Variable共享內(nèi)存, 所以不會(huì)出錯(cuò). 但是最后一句話,
grad_latter_all[idx] = torch.add(grad_latter_all[idx], grad_swapped_weighted.mul(ctx.triple_w))
你可能會(huì)說, 不對啊, 修改grad_latter_all[idx]又沒有創(chuàng)建新的Variable, 怎么會(huì)出錯(cuò). 這是因?yàn)間rad_latter_all和grad_output是共享內(nèi)存的. 因?yàn)?grad_latter_all = grad_output[:, c//3: c*2//3, :, :], 所以這里的解決方案是:
@staticmethod
def backward(ctx, grad_output):
ind_lst = ctx.ind_lst
flag = ctx.flag
c = grad_output.size(1)
grad_former_all = grad_output[:, 0:c//3, :, :]
# 這兩個(gè)后面修改值了, 所以也要加clone, 防止它們與grad_output共享內(nèi)存
grad_latter_all = grad_output[:, c//3: c*2//3, :, :].clone()
grad_swapped_all = grad_output[:, c*2//3:c, :, :].clone()
spatial_size = ctx.h * ctx.w
W_mat_all = Variable(ctx.Tensor(ctx.bz, spatial_size, spatial_size).zero_())
for idx in range(ctx.bz):
W_mat = W_mat_all.select(0,idx).clone()
for cnt in range(spatial_size):
indS = ind_lst[idx][cnt]
if flag[cnt] == 1:
W_mat[cnt, indS] = 1
W_mat_t = W_mat.t()
grad_swapped_weighted = torch.mm(W_mat_t, grad_swapped_all[idx].view(c//3, -1).t())
grad_swapped_weighted = grad_swapped_weighted.t().contiguous().view(1, c//3, ctx.h, ctx.w)
grad_latter_all[idx] = torch.add(grad_latter_all[idx], grad_swapped_weighted.mul(ctx.triple_w))
grad_input = torch.cat([grad_former_all, grad_latter_all], 1)
return grad_input, None, None, None, None, None, None, None, None, None, None
補(bǔ)充知識:Pytorch 中 expand, expand_as是共享內(nèi)存的,只是原始數(shù)據(jù)的一個(gè)視圖 view
如下所示:
mask = mask_miss.expand_as(sxing).clone() # type: torch.Tensor
mask[:, :, -2, :, :] = 1 # except for person mask channel
為了避免對expand后對某個(gè)channel操作會(huì)影響原始tensor的全部元素,需要使用clone()
如果沒有clone(),對mask_miss的某個(gè)通道賦值后,所有通道上的tensor都會(huì)變成1!
# Notice! expand does not allocate more memory but just make the tensor look as if you expanded it.
# You should call .clone() on the resulting tensor if you plan on modifying it
# https://discuss.pytorch.org/t/very-strange-behavior-change-one-element-of-a-tensor-will-influence-all-elements/41190
以上這篇解決Pytorch自定義層出現(xiàn)多Variable共享內(nèi)存錯(cuò)誤問題就是小編分享給大家的全部內(nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
Python?Cloudinary實(shí)現(xiàn)圖像和視頻上傳詳解
這篇文章主要介紹了Python?Cloudinary實(shí)現(xiàn)圖像和視頻上傳功能,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)吧2022-11-11
python實(shí)現(xiàn)列表中由數(shù)值查到索引的方法
今天小編就為大家分享一篇python實(shí)現(xiàn)列表中由數(shù)值查到索引的方法,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-06-06
Python基于回溯法子集樹模板實(shí)現(xiàn)8皇后問題
這篇文章主要介紹了Python基于回溯法子集樹模板實(shí)現(xiàn)8皇后問題,簡單說明了8皇后問題的原理并結(jié)合實(shí)例形式分析了Python回溯法子集樹模板解決8皇后問題的具體實(shí)現(xiàn)技巧,需要的朋友可以參考下2017-09-09
Python利用itchat模塊定時(shí)給朋友發(fā)送微信信息
這篇文章主要介紹了在Python中利用itchat模塊編寫一個(gè)爬蟲腳本,可以實(shí)現(xiàn)每天定時(shí)給朋友發(fā)微信暖心話,感興趣的可以跟隨小編一起學(xué)習(xí)一下2022-01-01
3行Python代碼實(shí)現(xiàn)圖像照片摳圖和換底色的方法
這篇文章主要介紹了3行Python代碼實(shí)現(xiàn)圖像照片摳圖和換底色的方法,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2019-10-10
Windows平臺(tái)Python編程必會(huì)模塊之pywin32介紹
在Windows平臺(tái)上,從原來使用C/C++編寫原生EXE程序,到使用Python編寫一些常用腳本程序,成熟的模塊的使用使得編程效率大大提高了2019-10-10

