PyTorch基礎(chǔ)之torch.nn.Conv2d中自定義權(quán)重問題
torch.nn.Conv2d中自定義權(quán)重
torch.nn.Conv2d函數(shù)調(diào)用后會自動初始化weight和bias,本文主要涉及
如何自定義weight和bias為需要的數(shù)均分布類型:
torch.nn.Conv2d.weight.data以及torch.nn.Conv2d.bias.data為torch.tensor類型,因此只要對這兩個屬性進行操作即可。
【sample】
以input_channels = 2, output_channels = 1 為例
In [1]: import torch
In [2]: import torch.nn as nn
In [3]: conv = nn.Conv2d(in_channels=2, out_channels=1, kernel_size=3)
# 此時weight以及bias已由nn.Conv2d初始化
conv.weight, conv.bias
Out[4]:
(Parameter containing:
tensor([[[[-0.0335, 0.0855, -0.0708],
[-0.1672, 0.0902, -0.0077],
[-0.0838, -0.1539, -0.0933]],
[[-0.0496, 0.1807, -0.1477],
[ 0.0397, 0.1963, 0.0932],
[-0.2018, -0.0436, 0.1971]]]], requires_grad=True),
Parameter containing:
tensor([-0.1963], requires_grad=True))
# 手動設(shè)定
# conv.weight.data 以及 conv.bias.data屬性為torch.tensor
# 因此只要獲取conv.weight.data以及conv.bias.data屬性,后續(xù)調(diào)用torch.tensor的不同方法即可進行修改
# 例如:全部修改為0
In [5]: conv.weight.data.zero_(), conv.bias.data.zero_()
In [6]: conv.weight, conv.bias
Out[6]:
(Parameter containing:
tensor([[[[0., 0., 0.],
[0., 0., 0.],
[0., 0., 0.]],
[[0., 0., 0.],
[0., 0., 0.],
[0., 0., 0.]]]], requires_grad=True),
Parameter containing:
tensor([0.], requires_grad=True))
torch.nn.Conv2d()用法講解
本文是深度學(xué)習(xí)框架 pytorch 的API : torch.nn.Conv2d() 函數(shù)的用法。介紹了 torch.nn.Conv2d() 各個參數(shù)的含義和用法,學(xué)會使用 pytorch 創(chuàng)建 卷積神經(jīng)網(wǎng)絡(luò)。
用法
Conv2d(in_channels, out_channels, kernel_size, stride=1,padding=0, dilation=1, groups=1,bias=True, padding_mode=‘zeros')
參數(shù)
in_channels:輸入的通道數(shù)目 【必選】out_channels:輸出的通道數(shù)目 【必選】kernel_size:卷積核的大小,類型為int 或者元組,當(dāng)卷積是方形的時候,只需要一個整數(shù)邊長即可,卷積不是方形,要輸入一個元組表示 高和寬。【必選】stride:卷積每次滑動的步長為多少,默認是 1 【可選】padding:設(shè)置在所有邊界增加 值為 0 的邊距的大?。ㄒ簿褪窃趂eature map 外圍增加幾圈 0 ),例如當(dāng) padding =1 的時候,如果原來大小為 3 × 3 ,那么之后的大小為 5 × 5 。即在外圍加了一圈 0 ?!究蛇x】dilation:控制卷積核之間的間距(什么玩意?請看例子)【可選】
如果我們設(shè)置的dilation=0的話,效果如圖:(藍色為輸入,綠色為輸出,卷積核為3 × 3)

如果設(shè)置的是dilation=1,那么效果如圖:(藍色為輸入,綠色為輸出,卷積核仍為 3 × 3 。)
但是這里卷積核點與輸入之間距離為1的值相乘來得到輸出。

groups:控制輸入和輸出之間的連接。(不常用)【可選】
舉例來說:
比如 groups 為1,那么所有的輸入都會連接到所有輸出
當(dāng) groups 為 2的時候,相當(dāng)于將輸入分為兩組,并排放置兩層,每層看到一半的輸入通道并產(chǎn)生一半的輸出通道,并且兩者都是串聯(lián)在一起的。這也是參數(shù)字面的意思:“組” 的含義。
需要注意的是,in_channels 和 out_channels 必須都可以整除 groups,否則會報錯(因為要分成這么多組啊,除不開你讓人家程序怎么辦?)
bias: 是否將一個 學(xué)習(xí)到的 bias 增加輸出中,默認是 True ?!究蛇x】padding_mode: 字符串類型,接收的字符串只有 “zeros” 和 “circular”。【可選】
注意:參數(shù) kernel_size,stride,padding,dilation 都可以是一個整數(shù)或者是一個元組,一個值的情況將會同時作用于高和寬 兩個維度,兩個值的元組情況代表分別作用于 高 和 寬 維度。
相關(guān)形狀

示例
入門學(xué)習(xí)者請不要過度關(guān)注某一些細節(jié),建立一個簡單的卷積層使用這個 API 其實很簡單,大部分參數(shù)保持默認值就好,下面是簡單的一個示例,創(chuàng)建一個簡單的卷積神經(jīng)網(wǎng)絡(luò):
class CNN(nn.Module):
def __init__(self,in_channels:int,out_channels:int):
"""
創(chuàng)建一個卷積神經(jīng)網(wǎng)絡(luò)
網(wǎng)絡(luò)只有兩層
:param in_channels: 輸入通道數(shù)量
:param out_channels: 輸出通道數(shù)量
"""
super(CNN).__init__()
self.conv1=nn.Conv2d(in_channels,10,3,stride=1,padding=1)
self.pool1=nn.MaxPool2d(kernel_size=2,stride=1)
self.conv2=nn.Conv2d(10,out_channels,3,stride=1,padding=1)
self.pool2=nn.MaxPool2d(kernel_size=2,stride=1)
def forward(self,x):
"""
前向傳播函數(shù)
:param x: 輸入,tensor 類型
:return: 返回結(jié)果
"""
out=self.conv1(x)
out=self.pool1(out)
out=self.conv2(out)
out=self.pool2(out)
return out
總結(jié)
以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關(guān)文章
使用Python爬取網(wǎng)頁中隱藏的div內(nèi)容
在這個信息爆炸的時代,互聯(lián)網(wǎng)上的數(shù)據(jù)無時無刻不在增長,許多網(wǎng)頁為了提升用戶體驗或保護數(shù)據(jù),會將部分內(nèi)容默認隱藏起來,只有在特定條件下才會顯示,所以本文將詳細介紹如何使用Python爬取這些隱藏的div內(nèi)容,需要的朋友可以參考下2025-03-03
分享5個數(shù)據(jù)處理更加靈活的pandas調(diào)用函數(shù)方法
這篇文章主要介紹了分享5個數(shù)據(jù)處理更加靈活的pandas調(diào)用函數(shù)方法,文章基于python的相關(guān)內(nèi)容展開詳細介紹,需要的小伙伴可以參考一下2022-04-04

