pytorch的batch normalize使用詳解
torch.nn.BatchNorm1d()
1、BatchNorm1d(num_features, eps = 1e-05, momentum=0.1, affine=True)
對(duì)于2d或3d輸入進(jìn)行BN。在訓(xùn)練時(shí),該層計(jì)算每次輸入的均值和方差,并進(jìn)行平行移動(dòng)。移動(dòng)平均默認(rèn)的動(dòng)量為0.1。在驗(yàn)證時(shí),訓(xùn)練求得的均值/方差將用于標(biāo)準(zhǔn)化驗(yàn)證數(shù)據(jù)。
num_features:表示輸入的特征數(shù)。該期望輸入的大小為'batch_size x num_features [x width]'
Shape: - 輸入:(N, C)或者(N, C, L) - 輸出:(N, C)或者(N,C,L)(輸入輸出相同)
2、BatchNorm2d(同上)
對(duì)3d數(shù)據(jù)組成的4d輸入進(jìn)行BN。
num_features: 來(lái)自期望輸入的特征數(shù),該期望輸入的大小為'batch_size x num_features x height x width'
Shape: - 輸入:(N, C,H, W) - 輸出:(N, C, H, W)(輸入輸出相同)
3、BatchNorm3d(同上)
對(duì)4d數(shù)據(jù)組成的5d輸入進(jìn)行BN。
以上這篇pytorch的batch normalize使用詳解就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
一小時(shí)學(xué)會(huì)TensorFlow2之大幅提高模型準(zhǔn)確率
這篇文章主要介紹了TensorFlow2之大幅提高模型準(zhǔn)確率,本文給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2021-09-09
Python程序設(shè)計(jì)入門(mén)(4)模塊和包
Python語(yǔ)言功能非常強(qiáng)大,除了類(lèi)之外,還有模塊和包的概念,這有點(diǎn)像perl,本文主要介紹了包和模塊,需要的朋友可以參考下2014-06-06
深入理解Python虛擬機(jī)中魔術(shù)方法的使用
這篇文章主要給大家介紹在?cpython?當(dāng)中一些比較花里胡哨的魔術(shù)方法,以幫助我們自己實(shí)現(xiàn)比較花哨的功能,當(dāng)然這其中也包含一些也非常實(shí)用的魔術(shù)方法,需要的可以參考下2023-05-05
python的import?機(jī)制是怎么實(shí)現(xiàn)的
這篇文章主要介紹了python的import?機(jī)制是怎么實(shí)現(xiàn)的,import有Python運(yùn)行時(shí)的全局模塊池的維護(hù)和搜索、解析與搜索模塊路徑的樹(shù)狀結(jié)構(gòu)等作用,下文具體相關(guān)介紹需要的小伙伴可以參考一下2022-05-05

