pytorch 中nn.Dropout的使用說明
看代碼吧~
Class USeDropout(nn.Module):
def __init__(self):
super(DropoutFC, self).__init__()
self.fc = nn.Linear(100,20)
self.dropout = nn.Dropout(p=0.5)
def forward(self, input):
out = self.fc(input)
out = self.dropout(out)
return out
Net = USeDropout()
Net.train()
示例代碼如上,直接調(diào)用nn.Dropout即可,但是注意在調(diào)用時(shí)要將模型參數(shù)傳入。
補(bǔ)充:Pytorch的nn.Dropout運(yùn)行穩(wěn)定性測(cè)試
結(jié)論:
Pytorch的nn.Dropout在每次被調(diào)用時(shí)dropout掉的參數(shù)都不一樣,即使是同一次forward也不同。
如果模型里多次使用的dropout的dropout rate大小相同,用同一個(gè)dropout層即可。
如代碼所示:
import torch
import torch.nn as nn
class MyModel(nn.Module):
def __init__(self):
super(MyModel, self).__init__()
self.dropout_1 = nn.Dropout(0.5)
self.dropout_2 = nn.Dropout(0.5)
def forward(self, input):
# print(input)
drop_1 = self.dropout_1(input)
print(drop_1)
drop_1 = self.dropout_1(input)
print(drop_1)
drop_2 = self.dropout_2(input)
print(drop_2)
if __name__ == '__main__':
i = torch.rand((5, 5))
m = MyModel()
m.forward(i)
結(jié)果如下:
*\python.exe */model.py
tensor([[0.0000, 0.0914, 0.0000, 1.4095, 0.0000],
[0.0000, 0.0000, 0.1726, 1.3800, 0.0000],
[1.7651, 0.0000, 0.0000, 0.9421, 1.5603],
[1.0510, 1.7290, 0.0000, 0.0000, 0.8565],
[0.0000, 0.0000, 0.0000, 0.0000, 0.0000]])
tensor([[0.0000, 0.0000, 0.4722, 1.4095, 0.0000],
[0.0416, 0.0000, 0.1726, 1.3800, 1.3193],
[0.0000, 0.3401, 0.6550, 0.0000, 0.0000],
[1.0510, 1.7290, 1.5515, 0.0000, 0.0000],
[0.6388, 0.0000, 0.0000, 1.0122, 0.0000]])
tensor([[0.0000, 0.0000, 0.4722, 0.0000, 1.2689],
[0.0416, 0.0000, 0.0000, 1.3800, 0.0000],
[0.0000, 0.0000, 0.6550, 0.0000, 1.5603],
[0.0000, 0.0000, 1.5515, 1.4596, 0.0000],
[0.0000, 0.0000, 0.0000, 0.0000, 0.0000]])Process finished with exit code 0
以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
- PyTorch使用Tricks:Dropout,R-Dropout和Multi-Sample?Dropout方式
- Pytorch?nn.Dropout的用法示例詳解
- Python深度學(xué)習(xí)pytorch神經(jīng)網(wǎng)絡(luò)Dropout應(yīng)用詳解解
- Pytorch之如何dropout避免過擬合
- PyTorch dropout設(shè)置訓(xùn)練和測(cè)試模式的實(shí)現(xiàn)
- pytorch Dropout過擬合的操作
- 淺談pytorch中的dropout的概率p
- PyTorch 實(shí)現(xiàn)L2正則化以及Dropout的操作
- pytorch 實(shí)現(xiàn)在測(cè)試的時(shí)候啟用dropout
- pytorch中Dropout的具體用法
相關(guān)文章
利用Python批量壓縮png方法實(shí)例(支持過濾個(gè)別文件與文件夾)
這篇文章主要給大家介紹了關(guān)于利用Python批量壓縮png的相關(guān)資料,文中介紹的方法支持過濾個(gè)別文件與文件夾,文中通過示例代碼介紹的非常詳細(xì),需要的朋友們下面跟著小編來一起看看吧。2017-07-07
python實(shí)現(xiàn)k均值算法示例(k均值聚類算法)
這篇文章主要介紹了python實(shí)現(xiàn)k均值算法示例,簡(jiǎn)單實(shí)現(xiàn)平面的點(diǎn)K均值分析,使用歐幾里得距離,并用pylab展示,需要的朋友可以參考下2014-03-03
Pytorch中torch.flatten()和torch.nn.Flatten()實(shí)例詳解
這篇文章主要給大家介紹了關(guān)于Pytorch中torch.flatten()和torch.nn.Flatten()的相關(guān)資料,文中通過實(shí)例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2022-02-02
python開發(fā)一個(gè)文件夾文件名提取工具(附完整代碼)
這篇文章主要為大家詳細(xì)介紹了如何使用python開發(fā)一個(gè)文件夾文件名提取工具,專門用于提取文件夾中所有文件的名稱并導(dǎo)出為Excel格式,感興趣的小伙伴可以了解下2025-09-09
1分鐘快速生成用于網(wǎng)頁(yè)內(nèi)容提取的xslt
這篇文章主要教大家如何1分鐘快速生成用于網(wǎng)頁(yè)內(nèi)容提取的xslt,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2018-02-02
Python?matplotlib數(shù)據(jù)可視化圖繪制
這篇文章主要介紹了Python?matplotlib數(shù)據(jù)可視化圖繪制,文章圍繞主題展開詳細(xì)的內(nèi)容介紹,具有一定的參考價(jià)值,需要的朋友可以參考一下2022-07-07

