pytorch中的優(yōu)化器optimizer.param_groups用法
optimizer.param_groups: 是長(zhǎng)度為2的list,其中的元素是2個(gè)字典;
optimizer.param_groups[0]: 長(zhǎng)度為6的字典,包括[‘a(chǎn)msgrad', ‘params', ‘lr', ‘betas', ‘weight_decay', ‘eps']這6個(gè)參數(shù);
optimizer.param_groups[1]: 好像是表示優(yōu)化器的狀態(tài)的一個(gè)字典;
import torch import torch.optim as optimh2 w1 = torch.randn(3, 3) w1.requires_grad = True w2 = torch.randn(3, 3) w2.requires_grad = True o = optim.Adam([w1]) print(o.param_groups)
[{'amsgrad': False,
'betas': (0.9, 0.999),
'eps': 1e-08,
'lr': 0.001,
'params': [tensor([[ 2.9064, -0.2141, -0.4037],
[-0.5718, 1.0375, -0.6862],
[-0.8372, 0.4380, -0.1572]])],
'weight_decay': 0}]
Per the docs, the add_param_group method accepts a param_group parameter that is a dict. Example of use:h2import torch
import torch.optim as optimh2
w1 = torch.randn(3, 3)
w1.requires_grad = True
w2 = torch.randn(3, 3)
w2.requires_grad = True
o = optim.Adam([w1])
print(o.param_groups)
givesh2[{'amsgrad': False,
'betas': (0.9, 0.999),
'eps': 1e-08,
'lr': 0.001,
'params': [tensor([[ 2.9064, -0.2141, -0.4037],
[-0.5718, 1.0375, -0.6862],
[-0.8372, 0.4380, -0.1572]])],
'weight_decay': 0}]
nowh2o.add_param_group({'params': w2})
print(o.param_groups)
[{'amsgrad': False,
'betas': (0.9, 0.999),
'eps': 1e-08,
'lr': 0.001,
'params': [tensor([[ 2.9064, -0.2141, -0.4037],
[-0.5718, 1.0375, -0.6862],
[-0.8372, 0.4380, -0.1572]])],
'weight_decay': 0},
{'amsgrad': False,
'betas': (0.9, 0.999),
'eps': 1e-08,
'lr': 0.001,
'params': [tensor([[-0.0560, 0.4585, -0.7589],
[-0.1994, 0.4557, 0.5648],
[-0.1280, -0.0333, -1.1886]])],
'weight_decay': 0}]
# 動(dòng)態(tài)修改學(xué)習(xí)率
for param_group in optimizer.param_groups:
param_group["lr"] = lr
# 得到學(xué)習(xí)率optimizer.param_groups[0]["lr"] h2# print('查看optimizer.param_groups結(jié)構(gòu):')
# i_list=[i for i in optimizer.param_groups[0].keys()]
# print(i_list)
['amsgrad', 'params', 'lr', 'betas', 'weight_decay', 'eps']
補(bǔ)充:pytorch中的優(yōu)化器總結(jié)
以SGD優(yōu)化器為例:
# -*- coding: utf-8 -*-
#@Time :2019/7/3 22:31
#@Author :XiaoMa
from torch import nn as nn
import torch as t
from torch.autograd import Variable as V
#定義一個(gè)LeNet網(wǎng)絡(luò)
class Net(nn.Module):
def __init__(self):
super(Net,self).__init__()
self.features=nn.Sequential(
nn.Conv2d(3,6,5),
nn.ReLU(),
nn.MaxPool2d(2,2),
nn.Conv2d(6,16,5),
nn.ReLU(),
nn.MaxPool2d(2,3)
)
self.classifier=nn.Sequential(\
nn.Linear(16*5*5,120),
nn.ReLU(),
nn.Linear(120,84),
nn.ReLU(),
nn.Linear(84,10)
)
def forward(self, x):
x=self.features(x)
x=x.view(-1,16*5*5)
x=self.classifier(x)
return x
net=Net()
from torch import optim #優(yōu)化器
optimizer=optim.SGD(params=net.parameters(),lr=1)
optimizer.zero_grad() #梯度清零,相當(dāng)于net.zero_grad()
input=V(t.randn(1,3,32,32))
output=net(input)
output.backward(output) #fake backward
optimizer.step() #執(zhí)行優(yōu)化
#為不同子網(wǎng)絡(luò)設(shè)置不同的學(xué)習(xí)率,在finetune中經(jīng)常用到
#如果對(duì)某個(gè)參數(shù)不指定學(xué)習(xí)率,就使用默認(rèn)學(xué)習(xí)率
optimizer=optim.SGD(
[{'param':net.features.parameters()}, #學(xué)習(xí)率為1e-5
{'param':net.classifier.parameters(),'lr':1e-2}],lr=1e-5
)
#只為兩個(gè)全連接層設(shè)置較大的學(xué)習(xí)率,其余層的學(xué)習(xí)率較小
special_layers=nn.ModuleList([net.classifier[0],net.classifier[3]])
special_layers_params=list(map(id,special_layers.parameters()))
base_params=filter(lambda p:id(p) not in special_layers_params,net.parameters())
optimizer=t.optim.SGD([
{'param':base_params},
{'param':special_layers.parameters(),'lr':0.01}
],lr=0.001)
調(diào)整學(xué)習(xí)率主要有兩種做法。
一種是修改optimizer.param_groups中對(duì)應(yīng)的學(xué)習(xí)率,另一種是新建優(yōu)化器(更簡(jiǎn)單也是更推薦的做法),由于optimizer十分輕量級(jí),構(gòu)建開銷很小,故可以構(gòu)建新的optimizer。
但是新建優(yōu)化器會(huì)重新初始化動(dòng)量等狀態(tài)信息,這對(duì)使用動(dòng)量的優(yōu)化器來(lái)說(shuō)(如自帶的momentum的sgd),可能會(huì)造成損失函數(shù)在收斂過(guò)程中出現(xiàn)震蕩。
如:
#調(diào)整學(xué)習(xí)率,新建一個(gè)optimizer
old_lr=0.1
optimizer=optim.SGD([
{'param':net.features.parameters()},
{'param':net.classifiers.parameters(),'lr':old_lr*0.5}],lr=1e-5)
以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
Python并發(fā)執(zhí)行的幾種實(shí)現(xiàn)方法
在Python中多線程是實(shí)現(xiàn)并發(fā)的一種方式,多線程可以讓程序在同一時(shí)間內(nèi)進(jìn)行多個(gè)任務(wù),從而提高程序的效率和執(zhí)行速度,這篇文章主要給大家介紹了關(guān)于Python并發(fā)執(zhí)行的幾種實(shí)現(xiàn)方法,需要的朋友可以參考下2024-08-08
Python基于BeautifulSoup和requests實(shí)現(xiàn)的爬蟲功能示例
這篇文章主要介紹了Python基于BeautifulSoup和requests實(shí)現(xiàn)的爬蟲功能,結(jié)合實(shí)例形式分析了Python使用BeautifulSoup和requests庫(kù)爬取網(wǎng)站指定信息的相關(guān)操作技巧,需要的朋友可以參考下2019-08-08
python Flask實(shí)現(xiàn)restful api service
本篇文章主要介紹了python Flask實(shí)現(xiàn)restful api service,小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2017-12-12
解決python 輸出到csv 出現(xiàn)多空行的情況
這篇文章主要介紹了解決python 輸出到csv 出現(xiàn)多空行的情況,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2021-03-03
Python(wordcloud)如何根據(jù)文本數(shù)據(jù)(.txt文件)繪制詞云圖
這篇文章主要給大家介紹了關(guān)于Python(wordcloud)如何根據(jù)文本數(shù)據(jù)(.txt文件)繪制詞云圖的相關(guān)資料,詞云Wordcloud是文本數(shù)據(jù)的一種可視化表示方式,它通過(guò)設(shè)置不同的字體大小或顏色來(lái)表現(xiàn)每個(gè)術(shù)語(yǔ)的重要性,需要的朋友可以參考下2024-05-05

