解決pytorch 的state_dict()拷貝問(wèn)題
先說(shuō)結(jié)論
model.state_dict()是淺拷貝,返回的參數(shù)仍然會(huì)隨著網(wǎng)絡(luò)的訓(xùn)練而變化。
應(yīng)該使用deepcopy(model.state_dict()),或?qū)?shù)及時(shí)序列化到硬盤(pán)。
再講故事,前幾天在做一個(gè)模型的交叉驗(yàn)證訓(xùn)練時(shí),通過(guò)model.state_dict()保存了每一組交叉驗(yàn)證模型的參數(shù),后根據(jù)效果選擇準(zhǔn)確率最佳的模型load回去,結(jié)果每一次都是最后一個(gè)模型,從地址來(lái)看,每一個(gè)保存的state_dict()都具有不同的地址,但進(jìn)一步發(fā)現(xiàn)state_dict()下的各個(gè)模型參數(shù)的地址是共享的,而我又使用了in-place的方式重置模型參數(shù),進(jìn)而導(dǎo)致了上述問(wèn)題。
補(bǔ)充:pytorch中state_dict的理解
在PyTorch中,state_dict是一個(gè)Python字典對(duì)象(在這個(gè)有序字典中,key是各層參數(shù)名,value是各層參數(shù)),包含模型的可學(xué)習(xí)參數(shù)(即權(quán)重和偏差,以及bn層的的參數(shù)) 優(yōu)化器對(duì)象(torch.optim)也具有state_dict,其中包含有關(guān)優(yōu)化器狀態(tài)以及所用超參數(shù)的信息。
其實(shí)看了如下代碼的輸出應(yīng)該就懂了
import torch
import torch.nn as nn
import torchvision
import numpy as np
from torchsummary import summary
# Define model
class TheModelClass(nn.Module):
def __init__(self):
super(TheModelClass, self).__init__()
self.conv1 = nn.Conv2d(3, 6, 5)
self.pool = nn.MaxPool2d(2, 2)
self.conv2 = nn.Conv2d(6, 16, 5)
self.fc1 = nn.Linear(16 * 5 * 5, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 10)
def forward(self, x):
x = self.pool(F.relu(self.conv1(x)))
x = self.pool(F.relu(self.conv2(x)))
x = x.view(-1, 16 * 5 * 5)
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x = self.fc3(x)
return x
# Initialize model
model = TheModelClass()
# Initialize optimizer
optimizer = torch.optim.SGD(model.parameters(), lr=0.001, momentum=0.9)
# Print model's state_dict
print("Model's state_dict:")
for param_tensor in model.state_dict():
print(param_tensor,"\t", model.state_dict()[param_tensor].size())
# Print optimizer's state_dict
print("Optimizer's state_dict:")
for var_name in optimizer.state_dict():
print(var_name, "\t", optimizer.state_dict()[var_name])
輸出如下:
Model's state_dict:
conv1.weight torch.Size([6, 3, 5, 5])
conv1.bias torch.Size([6])
conv2.weight torch.Size([16, 6, 5, 5])
conv2.bias torch.Size([16])
fc1.weight torch.Size([120, 400])
fc1.bias torch.Size([120])
fc2.weight torch.Size([84, 120])
fc2.bias torch.Size([84])
fc3.weight torch.Size([10, 84])
fc3.bias torch.Size([10])
Optimizer's state_dict:
state {}
param_groups [{'lr': 0.001, 'momentum': 0.9, 'dampening': 0, 'weight_decay': 0, 'nesterov': False, 'params': [2238501264336, 2238501329800, 2238501330016, 2238501327136, 2238501328576, 2238501329728, 2238501327928, 2238501327064, 2238501330808, 2238501328288]}]
我是剛接觸深度學(xué)西的小白一個(gè),希望大佬可以為我指出我的不足,此博客僅為自己的筆記!?。?!
補(bǔ)充:pytorch保存模型時(shí)報(bào)錯(cuò)***object has no attribute 'state_dict'
定義了一個(gè)類BaseNet并實(shí)例化該類:
net=BaseNet()
保存net時(shí)報(bào)錯(cuò) object has no attribute 'state_dict'
torch.save(net.state_dict(), models_dir)
原因是定義類的時(shí)候不是繼承nn.Module類,比如:
class BaseNet(object): def __init__(self):
把類定義改為
class BaseNet(nn.Module):
def __init__(self):
super(BaseNet, self).__init__()
以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教。
相關(guān)文章
Python-Selenium自動(dòng)化爬蟲(chóng)
本文介紹Python-Selenium自動(dòng)化爬蟲(chóng),Selenium是一個(gè)Web的自動(dòng)化測(cè)試工具,最初是為網(wǎng)站自動(dòng)化測(cè)試而開(kāi)發(fā)的,Selenium?可以直接運(yùn)行在瀏覽器上,它支持所有主流的瀏覽器,可以接收指令,讓瀏覽器自動(dòng)加載頁(yè)面,獲取需要的數(shù)據(jù),甚至頁(yè)面截屏,xiamian?neir?需要的朋友可以參考下2022-01-01
Python Django路徑配置實(shí)現(xiàn)過(guò)程解析
這篇文章主要介紹了Python Django路徑配置實(shí)現(xiàn)過(guò)程解析,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2020-11-11

