PyTorch快速搭建神經(jīng)網(wǎng)絡(luò)及其保存提取方法詳解
有時(shí)候我們訓(xùn)練了一個(gè)模型, 希望保存它下次直接使用,不需要下次再花時(shí)間去訓(xùn)練 ,本節(jié)我們來(lái)講解一下PyTorch快速搭建神經(jīng)網(wǎng)絡(luò)及其保存提取方法詳解
一、PyTorch快速搭建神經(jīng)網(wǎng)絡(luò)方法
先看實(shí)驗(yàn)代碼:
import torch
import torch.nn.functional as F
# 方法1,通過(guò)定義一個(gè)Net類來(lái)建立神經(jīng)網(wǎng)絡(luò)
class Net(torch.nn.Module):
def __init__(self, n_feature, n_hidden, n_output):
super(Net, self).__init__()
self.hidden = torch.nn.Linear(n_feature, n_hidden)
self.predict = torch.nn.Linear(n_hidden, n_output)
def forward(self, x):
x = F.relu(self.hidden(x))
x = self.predict(x)
return x
net1 = Net(2, 10, 2)
print('方法1:\n', net1)
# 方法2 通過(guò)torch.nn.Sequential快速建立神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
net2 = torch.nn.Sequential(
torch.nn.Linear(2, 10),
torch.nn.ReLU(),
torch.nn.Linear(10, 2),
)
print('方法2:\n', net2)
# 經(jīng)驗(yàn)證,兩種方法構(gòu)建的神經(jīng)網(wǎng)絡(luò)功能相同,結(jié)構(gòu)細(xì)節(jié)稍有不同
'''''
方法1:
Net (
(hidden): Linear (2 -> 10)
(predict): Linear (10 -> 2)
)
方法2:
Sequential (
(0): Linear (2 -> 10)
(1): ReLU ()
(2): Linear (10 -> 2)
)
'''
先前學(xué)習(xí)了通過(guò)定義一個(gè)Net類來(lái)構(gòu)建神經(jīng)網(wǎng)絡(luò)的方法,classNet中首先通過(guò)super函數(shù)繼承torch.nn.Module模塊的構(gòu)造方法,再通過(guò)添加屬性的方式搭建神經(jīng)網(wǎng)絡(luò)各層的結(jié)構(gòu)信息,在forward方法中完善神經(jīng)網(wǎng)絡(luò)各層之間的連接信息,然后再通過(guò)定義Net類對(duì)象的方式完成對(duì)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的構(gòu)建。
構(gòu)建神經(jīng)網(wǎng)絡(luò)的另一個(gè)方法,也可以說(shuō)是快速構(gòu)建方法,就是通過(guò)torch.nn.Sequential,直接完成對(duì)神經(jīng)網(wǎng)絡(luò)的建立。
兩種方法構(gòu)建得到的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)完全相同,都可以通過(guò)print函數(shù)來(lái)打印輸出網(wǎng)絡(luò)信息,不過(guò)打印結(jié)果會(huì)有些許不同。
二、PyTorch的神經(jīng)網(wǎng)絡(luò)保存和提取
在學(xué)習(xí)和研究深度學(xué)習(xí)的時(shí)候,當(dāng)我們通過(guò)一定時(shí)間的訓(xùn)練,得到了一個(gè)比較好的模型的時(shí)候,我們當(dāng)然希望將這個(gè)模型及模型參數(shù)保存下來(lái),以備后用,所以神經(jīng)網(wǎng)絡(luò)的保存和模型參數(shù)提取重載是很有必要的。
首先,我們需要在需要保存網(wǎng)路結(jié)構(gòu)及其模型參數(shù)的神經(jīng)網(wǎng)絡(luò)的定義、訓(xùn)練部分之后通過(guò)torch.save()實(shí)現(xiàn)對(duì)網(wǎng)絡(luò)結(jié)構(gòu)和模型參數(shù)的保存。有兩種保存方式:一是保存年整個(gè)神經(jīng)網(wǎng)絡(luò)的的結(jié)構(gòu)信息和模型參數(shù)信息,save的對(duì)象是網(wǎng)絡(luò)net;二是只保存神經(jīng)網(wǎng)絡(luò)的訓(xùn)練模型參數(shù),save的對(duì)象是net.state_dict(),保存結(jié)果都以.pkl文件形式存儲(chǔ)。
對(duì)應(yīng)上面兩種保存方式,重載方式也有兩種。對(duì)應(yīng)第一種完整網(wǎng)絡(luò)結(jié)構(gòu)信息,重載的時(shí)候通過(guò)torch.load(‘.pkl')直接初始化新的神經(jīng)網(wǎng)絡(luò)對(duì)象即可。對(duì)應(yīng)第二種只保存模型參數(shù)信息,需要首先搭建相同的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),通過(guò)net.load_state_dict(torch.load('.pkl'))完成模型參數(shù)的重載。在網(wǎng)絡(luò)比較大的時(shí)候,第一種方法會(huì)花費(fèi)較多的時(shí)間。
代碼實(shí)現(xiàn):
import torch
from torch.autograd import Variable
import matplotlib.pyplot as plt
torch.manual_seed(1) # 設(shè)定隨機(jī)數(shù)種子
# 創(chuàng)建數(shù)據(jù)
x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1)
y = x.pow(2) + 0.2*torch.rand(x.size())
x, y = Variable(x, requires_grad=False), Variable(y, requires_grad=False)
# 將待保存的神經(jīng)網(wǎng)絡(luò)定義在一個(gè)函數(shù)中
def save():
# 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
net1 = torch.nn.Sequential(
torch.nn.Linear(1, 10),
torch.nn.ReLU(),
torch.nn.Linear(10, 1),
)
optimizer = torch.optim.SGD(net1.parameters(), lr=0.5)
loss_function = torch.nn.MSELoss()
# 訓(xùn)練部分
for i in range(300):
prediction = net1(x)
loss = loss_function(prediction, y)
optimizer.zero_grad()
loss.backward()
optimizer.step()
# 繪圖部分
plt.figure(1, figsize=(10, 3))
plt.subplot(131)
plt.title('net1')
plt.scatter(x.data.numpy(), y.data.numpy())
plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5)
# 保存神經(jīng)網(wǎng)絡(luò)
torch.save(net1, '7-net.pkl') # 保存整個(gè)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和模型參數(shù)
torch.save(net1.state_dict(), '7-net_params.pkl') # 只保存神經(jīng)網(wǎng)絡(luò)的模型參數(shù)
# 載入整個(gè)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)及其模型參數(shù)
def reload_net():
net2 = torch.load('7-net.pkl')
prediction = net2(x)
plt.subplot(132)
plt.title('net2')
plt.scatter(x.data.numpy(), y.data.numpy())
plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5)
# 只載入神經(jīng)網(wǎng)絡(luò)的模型參數(shù),神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)需要與保存的神經(jīng)網(wǎng)絡(luò)相同的結(jié)構(gòu)
def reload_params():
# 首先搭建相同的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
net3 = torch.nn.Sequential(
torch.nn.Linear(1, 10),
torch.nn.ReLU(),
torch.nn.Linear(10, 1),
)
# 載入神經(jīng)網(wǎng)絡(luò)的模型參數(shù)
net3.load_state_dict(torch.load('7-net_params.pkl'))
prediction = net3(x)
plt.subplot(133)
plt.title('net3')
plt.scatter(x.data.numpy(), y.data.numpy())
plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5)
# 運(yùn)行測(cè)試
save()
reload_net()
reload_params()
實(shí)驗(yàn)結(jié)果:

以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
python 自動(dòng)刷新網(wǎng)頁(yè)的兩種方法
這篇文章主要介紹了python 自動(dòng)刷新網(wǎng)頁(yè)的兩種方法,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2021-04-04
python實(shí)現(xiàn)批量獲取指定文件夾下的所有文件的廠商信息
這篇文章主要介紹了python實(shí)現(xiàn)批量獲取指定文件夾下的所有文件的廠商信息的方法,是非常實(shí)用的技巧,涉及到文件的讀寫與字典的操作等技巧,需要的朋友可以參考下2014-09-09
Django數(shù)據(jù)映射(一對(duì)一,一對(duì)多,多對(duì)多)
本文主要介紹了Django數(shù)據(jù)映射(一對(duì)一,一對(duì)多,多對(duì)多),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2022-08-08
python3基于TCP實(shí)現(xiàn)CS架構(gòu)文件傳輸
這篇文章主要為大家詳細(xì)介紹了python3基于TCP實(shí)現(xiàn)CS架構(gòu)文件傳輸,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2018-07-07
Python實(shí)現(xiàn)115網(wǎng)盤自動(dòng)下載的方法
這篇文章主要介紹了Python實(shí)現(xiàn)115網(wǎng)盤自動(dòng)下載的方法,可實(shí)現(xiàn)自動(dòng)調(diào)用115客戶端進(jìn)行下載的功能,非常實(shí)用,需要的朋友可以參考下2014-09-09
Python類中使用cursor.execute()時(shí)語(yǔ)法錯(cuò)誤的解決方法
在 Python 類中使用 cursor.execute() 時(shí),出現(xiàn)語(yǔ)法錯(cuò)誤(如 SyntaxError 或 SQL 語(yǔ)法相關(guān)錯(cuò)誤)通常是因?yàn)?nbsp;SQL 語(yǔ)句格式不正確、占位符使用不當(dāng),或參數(shù)傳遞方式不符合預(yù)期,以下是解決此類問(wèn)題的常見方法和建議,需要的朋友可以參考下2024-09-09
理解生產(chǎn)者消費(fèi)者模型及在Python編程中的運(yùn)用實(shí)例
生產(chǎn)者消費(fèi)者模型一般用于體現(xiàn)程序的多線程并發(fā)性,Python的多線程雖然受到GIL控制,但依然可以構(gòu)建隊(duì)列來(lái)簡(jiǎn)單體現(xiàn)出模型的思路,這里我們就來(lái)共同理解生產(chǎn)者消費(fèi)者模型及在Python編程中的運(yùn)用實(shí)例:2016-06-06
Python字符串處理實(shí)現(xiàn)單詞反轉(zhuǎn)
這篇文章主要為大家詳細(xì)介紹了Python字符串處理實(shí)現(xiàn)單詞反轉(zhuǎn)的方法,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2017-06-06

