人工智能學(xué)習(xí)PyTorch實現(xiàn)CNN卷積層及nn.Module類示例分析
1.CNN卷積層
通過nn.Conv2d可以設(shè)置卷積層,當(dāng)然也有1d和3d。
卷積層設(shè)置完畢,將設(shè)置好的輸入數(shù)據(jù),傳給layer(),即可完成一次前向運算。也可以傳給layer.forward,但不推薦。


2. 池化層
池化層的核大小一般是2*2,有2種方式:
maxpooling:選擇數(shù)據(jù)中最大值輸出
avgpooling:計算數(shù)據(jù)的均值并輸出
通過這一層可以實現(xiàn)降采樣。

3.數(shù)據(jù)批量標(biāo)準(zhǔn)化
Batch Normalize,在計算過程中,通常輸入的數(shù)據(jù)都是0-255的像素數(shù)據(jù),不方便計算,因此可以通過nn.BatchNorm1d方法進行標(biāo)準(zhǔn)化。
標(biāo)準(zhǔn)化后,可以通過running_mean, running_var獲取全局的均值和方差。

4.nn.Module類
①各類函數(shù)
Linear, ReLU, Sigmoid, Conv2d, Dropout等等
②容器功能
我們可以直接在定義自己的層的時候,把所有我們需要用到的層及相關(guān)函數(shù)放進去。使用的時候直接調(diào)用即可。

③參數(shù)管理
在這個類中可以直接生成我們需要的參數(shù),并且自動帶上梯度的需求。

④調(diào)用GPU

⑤存儲和加載
訓(xùn)練過程中可以根據(jù)需求,比如訓(xùn)練到某一個點的時候達(dá)到了最優(yōu),可以將其存儲。

⑥訓(xùn)練、測試狀態(tài)切換
直接調(diào)用根節(jié)點的train, eval就可以切換。

⑦ 創(chuàng)建自己的層

還有其他功能,但現(xiàn)在還不理解,因此先不往上寫了。
5.數(shù)據(jù)增強
數(shù)據(jù)增強主要用在我們數(shù)據(jù)不夠用的時候,對原來的數(shù)據(jù)進行調(diào)整,從而生成新的數(shù)據(jù)。比如一張圖片,我們可以對其進行翻轉(zhuǎn)、旋轉(zhuǎn)、大小調(diào)整、切割等操作 。導(dǎo)入數(shù)據(jù)的時候即可進行,具體實現(xiàn)方式如下。

以上就是人工智能學(xué)習(xí)PyTorch實現(xiàn)CNN卷積層及nn.Module類示例分析的詳細(xì)內(nèi)容,更多關(guān)于PyTorch中CNN及nn.Module的資料請關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
Python中用startswith()函數(shù)判斷字符串開頭的教程
這篇文章主要介紹了Python中用startswith()函數(shù)判斷字符串開頭的教程,startswith()函數(shù)的使用是Python學(xué)習(xí)中的基礎(chǔ)知識,本文列舉了一些不同情況下的使用結(jié)果,需要的朋友可以參考下2015-04-04
解決Python報錯No module named Crypto問題
這篇文章主要介紹了解決Python報錯No module named“Crypto”問題,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教2024-06-06
詳解python實現(xiàn)多張多格式圖片轉(zhuǎn)PDF并打包成exe
這篇文章主要為大家介紹了python實現(xiàn)多張多格式圖片轉(zhuǎn)PDF并打包成exe方式詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪2023-01-01
解決TensorFlow訓(xùn)練內(nèi)存不斷增長,進程被殺死問題
今天小編就為大家分享一篇解決TensorFlow訓(xùn)練內(nèi)存不斷增長,進程被殺死問題,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-02-02

