Python深度學(xué)習(xí)pytorch神經(jīng)網(wǎng)絡(luò)Dropout應(yīng)用詳解解
擾動(dòng)的魯棒性
在之前我們討論權(quán)重衰減(L2正則化)時(shí)看到的那樣,參數(shù)的范數(shù)也代表了一種有用的簡(jiǎn)單性度量。簡(jiǎn)單性的另一個(gè)有用角度是平滑性,即函數(shù)不應(yīng)該對(duì)其輸入的微笑變化敏感。例如,當(dāng)我們對(duì)圖像進(jìn)行分類時(shí),我們預(yù)計(jì)向像素添加一些隨機(jī)噪聲應(yīng)該是基本無(wú)影響的。
dropout在正向傳播過(guò)程中,計(jì)算每一內(nèi)部層同時(shí)注入噪聲,這已經(jīng)成為訓(xùn)練神經(jīng)網(wǎng)絡(luò)的標(biāo)準(zhǔn)技術(shù)。這種方法之所以被稱為dropout,因?yàn)槲覀儚谋砻嫔峡词窃谟?xùn)練過(guò)程中丟棄(drop out)一些神經(jīng)元。在整個(gè)訓(xùn)練過(guò)程的每一次迭代中,dropout包括在計(jì)算下一層之前將當(dāng)前層中的一些節(jié)點(diǎn)置零。
那么關(guān)鍵的挑戰(zhàn)就是如何注入這種噪聲,一種想法是以一種無(wú)偏的方式注入噪聲。這樣在固定住其他層時(shí),每一層的期望值等于沒(méi)有噪音時(shí)的值。

實(shí)踐中的dropout
之前多層感知機(jī)是帶有一個(gè)隱藏層和5個(gè)隱藏單元的。當(dāng)我們將dropout應(yīng)用到隱藏層時(shí),以 p的概率將隱藏單元置為零時(shí),結(jié)果可以看作是一個(gè)只包含原始神經(jīng)元子集的網(wǎng)絡(luò)。右圖中,刪除了 h2和 h5。因此,輸出的計(jì)算不再依賴于 h2或 h5,并且它們各自的梯度在執(zhí)行反向傳播時(shí)也會(huì)消失。這樣,輸出層的計(jì)算不能過(guò)度依賴于 h1,…,h5的任何一個(gè)元素。

通常,我們?cè)跍y(cè)試時(shí)僅用dropout。給定一個(gè)訓(xùn)練好的模型和一個(gè)新的樣本,我們不會(huì)丟棄任何節(jié)點(diǎn),因此不需要標(biāo)準(zhǔn)化。
簡(jiǎn)潔實(shí)現(xiàn)
對(duì)于高級(jí)API,我們所需要做的就是在每個(gè)全連接層之后添加一個(gè)Dropout層,將丟棄概率作為唯一的參數(shù)傳遞給它的構(gòu)造函數(shù)。在訓(xùn)練過(guò)程中,Dropout層將根據(jù)指定的丟棄概率隨機(jī)丟棄上一層的輸出(相當(dāng)于下一層的輸入)。當(dāng)不處于訓(xùn)練模式時(shí),Dropout層僅在測(cè)試時(shí)傳遞數(shù)據(jù)。
net = nn.Sequential(nn.Flatten(), nn.Linear(784, 256), nn.ReLU(), # 在第一個(gè)全連接層之后添加一個(gè)dropout層 nn.Dropout(dropout1), nn.Linear(256, 256), nn.ReLU(), # 在第二個(gè)全連接層之后添加一個(gè)dropout層 nn.Dropout(dropout2), nn.Linear(256, 10)) def init_weights(m): if type(m) == nn.Linear: nn.init.normal_(m.weight, std=0.01) net.apply(init_weights)
接下來(lái),我們對(duì)模型進(jìn)行訓(xùn)練和測(cè)試。
trainer = torch.optim.SGD(net.parameters(), lr=lr) d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, trainer)

以上就是Python深度學(xué)習(xí)pytorch神經(jīng)網(wǎng)絡(luò)Dropout應(yīng)用詳解解的詳細(xì)內(nèi)容,更多關(guān)于pytorch神經(jīng)網(wǎng)絡(luò)Dropout應(yīng)用的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!
- PyTorch使用Tricks:Dropout,R-Dropout和Multi-Sample?Dropout方式
- Pytorch?nn.Dropout的用法示例詳解
- Pytorch之如何dropout避免過(guò)擬合
- PyTorch dropout設(shè)置訓(xùn)練和測(cè)試模式的實(shí)現(xiàn)
- pytorch Dropout過(guò)擬合的操作
- 淺談pytorch中的dropout的概率p
- PyTorch 實(shí)現(xiàn)L2正則化以及Dropout的操作
- pytorch 實(shí)現(xiàn)在測(cè)試的時(shí)候啟用dropout
- pytorch 中nn.Dropout的使用說(shuō)明
- pytorch中Dropout的具體用法
相關(guān)文章
基于Python實(shí)現(xiàn)電影售票系統(tǒng)
這篇文章主要介紹了通過(guò)Python實(shí)現(xiàn)一個(gè)簡(jiǎn)單的電影售票系統(tǒng),文中的示例代碼對(duì)我們學(xué)習(xí)Python有一定的幫助,感興趣的小伙伴可以跟隨小編一起學(xué)習(xí)一下2021-12-12
python實(shí)現(xiàn)AdaBoost算法的示例
這篇文章主要介紹了python實(shí)現(xiàn)AdaBoost算法的示例,幫助大家更好的理解和了解機(jī)器學(xué)習(xí)算法,感興趣的朋友可以了解下2020-10-10
python 等差數(shù)列末項(xiàng)計(jì)算方式
這篇文章主要介紹了python 等差數(shù)列末項(xiàng)計(jì)算方式,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-05-05
用Python編寫(xiě)生成樹(shù)狀結(jié)構(gòu)的文件目錄的腳本的教程
這篇文章主要介紹了用Python編寫(xiě)生成樹(shù)狀結(jié)構(gòu)的文件目錄的腳本的教程,是一個(gè)利用os模塊下各函數(shù)的簡(jiǎn)單實(shí)現(xiàn),需要的朋友可以參考下2015-05-05
使用Python為Excel文件添加預(yù)設(shè)和自定義文檔屬性
向Excel文件添加文檔屬性是專業(yè)地組織和管理電子表格數(shù)據(jù)的關(guān)鍵步驟,這些屬性,如標(biāo)題、作者、主題和關(guān)鍵詞,增強(qiáng)了文件的元數(shù)據(jù),使得在大型數(shù)據(jù)庫(kù)或文件系統(tǒng)中跟蹤變得更加容易,本文將介紹如何使用Python高效地為Excel文件添加文檔屬性,需要的朋友可以參考下2024-05-05
Python實(shí)現(xiàn)自動(dòng)發(fā)送郵件功能
這篇文章主要為大家詳細(xì)介紹了Python實(shí)現(xiàn)自動(dòng)發(fā)送郵件功能,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2017-12-12
python實(shí)現(xiàn)控制臺(tái)打印的方法
今天小編就為大家分享一篇python實(shí)現(xiàn)控制臺(tái)打印的方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-01-01

