pytorch中nn.Conv1d的用法詳解
先粘貼一段official guide:nn.conv1d官方

我一開(kāi)始被in_channels、out_channels卡住了很久,結(jié)果發(fā)現(xiàn)就和conv2d是一毛一樣的。話不多說(shuō),先粘代碼(菜雞的自我修養(yǎng))
class CNN1d(nn.Module):
def __init__(self):
super(CNN1d,self).__init__()
self.layer1 = nn.Sequential(
nn.Conv1d(1,100,2),
nn.BatchNorm1d(100),
nn.ReLU(),
nn.MaxPool1d(8))
self.layer2 = nn.Sequential(
nn.Conv1d(100,50,2),
nn.BatchNorm1d(50),
nn.ReLU(),
nn.MaxPool1d(8))
self.fc = nn.Linear(300,6)
def forward(self,x):
#input.shape:(16,1,425)
out = self.layer1(x)
out = out.view(out.size(0),-1)
out = self.fc(out)
return out
輸入的數(shù)據(jù)格式是(batch_size,word_vector,sequence_length),我設(shè)置的batch=16,特征工程樣本是1x425,套用該格式就應(yīng)該是(16,1,425)。對(duì)應(yīng)nn.Conv1d的in_channels=1,out_channels就是你自己設(shè)置的,我選擇的是100。
因?yàn)槲易龅氖欠诸?lèi)場(chǎng)景,所以做完兩次一維卷積后還要加上一個(gè)線性層。
以上這篇pytorch中nn.Conv1d的用法詳解就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
Python實(shí)現(xiàn)模擬分割大文件及多線程處理的方法
這篇文章主要介紹了Python實(shí)現(xiàn)模擬分割大文件及多線程處理的方法,涉及Python文件讀取、分割及多線程相關(guān)操作技巧,需要的朋友可以參考下2017-10-10
Python定時(shí)庫(kù)Apscheduler的簡(jiǎn)單使用
Apscheduler是基于Quartz的Python定時(shí)任務(wù)框架,功能上跟Quartz一致,使用上跟Quartz也幾乎一致。下面通過(guò)本文給大家介紹Python定時(shí)庫(kù)Apscheduler的簡(jiǎn)單使用,感興趣的朋友一起看看吧2021-11-11
Python中類(lèi)方法@classmethod和靜態(tài)方法@staticmethod解析
這篇文章主要介紹了Python中類(lèi)方法@classmethod和靜態(tài)方法@staticmethod解析,python中存在三種方法,分別為常規(guī)方法(定義中傳入self)、@classmethod修飾的類(lèi)方法、@staticmethod修飾的靜態(tài)方法,,需要的朋友可以參考下2023-08-08
Python自定義聚合函數(shù)merge與transform區(qū)別詳解
這篇文章主要介紹了Python自定義聚合函數(shù)merge與transform區(qū)別詳解,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2020-05-05
Python中的type與isinstance的區(qū)別詳解
本文主要介紹了Python中的type與isinstance的區(qū)別詳解,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2023-04-04
詳解python3實(shí)現(xiàn)的web端json通信協(xié)議
本篇文章主要介紹了python3實(shí)現(xiàn)的web端json通信協(xié)議,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下。2016-12-12

