Pytorch卷積神經(jīng)網(wǎng)絡(luò)resent網(wǎng)絡(luò)實(shí)踐
前言
上篇文章,講了經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)-resnet,這篇文章通過resnet網(wǎng)絡(luò),做一些具體的事情。
一、技術(shù)介紹
總的來說,第一步首先要加載數(shù)據(jù)集,對(duì)數(shù)據(jù)進(jìn)行一些處理,第二步,調(diào)整學(xué)習(xí)率一些參數(shù),訓(xùn)練好resnet網(wǎng)絡(luò)模型,第三步輸入圖片或者視頻通過訓(xùn)練好的模型,得到結(jié)果。
二、實(shí)現(xiàn)途徑
1.加載數(shù)據(jù)集,對(duì)數(shù)據(jù)進(jìn)行處理,加載的圖片是(N,C,H,W )對(duì)圖片進(jìn)行處理成(C,H,W),通過圖片名稱獲取標(biāo)簽,進(jìn)行分類。

train_paper=r'E:\桌面\資料\cv3\數(shù)據(jù)集\罰拳_公開\train\paper'
train_rock=r'E:\桌面\資料\cv3\數(shù)據(jù)集\罰拳_公開\train\rock'
train_scissors=r'E:\桌面\資料\cv3\數(shù)據(jù)集\罰拳_公開\train\scissors'
test_paper=r'E:\桌面\資料\cv3\數(shù)據(jù)集\罰拳_公開\test\paper'
test_rock=r'E:\桌面\資料\cv3\數(shù)據(jù)集\罰拳_公開\test\rock'
test_scission=r'E:\桌面\資料\cv3\數(shù)據(jù)集\罰拳_公開\test\scissors'
Batch_files=10
transs=trans.Compose([
trans.ToTensor(),
trans.Normalize((0.5,0.5,0.5),(0.5,0.5,0.5))
])
def read_img(batch_files):
images=[]
labels=[]
for file in batch_files:
image=Image.open(file)
image=image.convert('RGB')
image=image.resize((64,64))
tensor=transs(image)
images.append(tensor)
if 'rock' in file :
labels.append(torch.tensor(0,dtype=torch.int64))
if 'paper' in file:
labels.append(torch.tensor(1,dtype=torch.int64))
if 'scissors' in file:
labels.append(torch.tensor(2,dtype=torch.int64))
return images,labels
if __name__ == '__main__':
2.寫入resnet模型:
這里用的是resnet18
class tiao(nn.Module):
def __init__(self,shuru,shuchu):
super(tiao, self).__init__()
self.conv1=nn.Conv2d(in_channels=shuru,out_channels=shuchu,kernel_size=(3,3),padding=(1,1))
self.bath=nn.BatchNorm2d(shuchu)
self.relu=nn.ReLU()
def forward(self,x):
x1=self.conv1(x)
x2=self.bath(x1)
x3=self.relu(x2)
x4=self.conv1(x3)
x5=self.bath(x4)
x6=self.relu(x5)
x7=x6+x
return x7
class tiao2(nn.Module):
def __init__(self,shuru):
super(tiao2, self).__init__()
self.conv1=nn.Conv2d(in_channels=shuru,out_channels=shuru*2,kernel_size=(3,3),stride=(2,2),padding=(1,1))
self.conv11=nn.Conv2d(in_channels=shuru,out_channels=shuru*2,kernel_size=(1,1),stride=(2,2))
self.batch=nn.BatchNorm2d(shuru*2)
self.relu=nn.ReLU()
self.conv2=nn.Conv2d(in_channels=shuru*2,out_channels=shuru*2,kernel_size=(3,3),stride=(1,1),padding=(1,1))
def forward(self,x):
x1=self.conv1(x)
x2=self.batch(x1)
x3=self.relu(x2)
x4=self.conv2(x3)
x5=self.batch(x4)
x6=self.relu(x5)
x11=self.conv11(x)
x7=x11+x6
return x7
class resnet18(nn.Module):
def __init__(self):
super(resnet18, self).__init__()
self.conv1=nn.Conv2d(in_channels=3,out_channels=64,kernel_size=(7,7),stride=(2,2),padding=(3,3))
self.bath=nn.BatchNorm2d(64)
self.relu=nn.ReLU()
self.max=nn.MaxPool2d(2,2)
self.tiao1=tiao(64,64)
self.tiao2=tiao(64,64)
self.tiao3=tiao2(64)
self.tiao4=tiao(128,128)
self.tiao5=tiao2(128)
self.tiao6=tiao(256,256)
self.tiao7=tiao2(256)
self.tiao8=tiao(512,512)
self.a=nn.AdaptiveAvgPool2d(output_size=(1,1))
self.l=nn.Linear(512,3)
def forward(self,x):
x1=self.conv1(x)
x2=self.bath(x1)
x3=self.relu(x2)
x4=self.tiao1(x3)
x5=self.tiao2(x4)
x6=self.tiao3(x5)
x7=self.tiao4(x6)
x8=self.tiao5(x7)
x9=self.tiao6(x8)
x10=self.tiao7(x9)
x11=self.tiao8(x10)
x12=self.a(x11)
x13=x12.view(x12.size()[0],-1)
x14=self.l(x13)
return x14
第三步:調(diào)用讀取數(shù)據(jù)函數(shù),讀取數(shù)據(jù),打亂,開始訓(xùn)練:
train_rock=[os.path.join(train_rock,file) for file in os.listdir(train_rock)]
train_paper= [os.path.join(train_paper, file) for file in os.listdir(train_paper)]
train_scissors = [os.path.join(train_scissors, file) for file in os.listdir(train_scissors)]
test_rock=[os.path.join(test_rock,file) for file in os.listdir(test_rock)]
test_paper=[os.path.join(test_paper,file) for file in os.listdir(test_paper)]
test_scission=[os.path.join(test_scission,file) for file in os.listdir(test_scission)]
train=train_rock+train_paper+train_scissors
test=test_rock+test_paper+test_scission
random.shuffle(train)
random.shuffle(test)
model=resnet18().cuda()
opt = torch.optim.ASGD(model.parameters(), lr=0.001, weight_decay=0.8)
loss = nn.CrossEntropyLoss()
print("開始訓(xùn)練")
第四步:訓(xùn)練模型,完成后保存模型:
for i in range(5):
running_loss=0
for index in range(0,len(train),Batch_files):
images,labels=read_img(train[index:index+Batch_files])
inputs=torch.stack(images,0).cuda()
labels=torch.stack(labels,0).cuda()
inputs, labels = Variable(inputs), Variable(labels)
opt.zero_grad()
h=model(inputs)
loss1=loss(h,labels)
loss1.backward()
opt.step()
running_loss+=loss1.item()
if index%41==40:
avg_loos=running_loss/41
running_loss=0
print('avg_loss',avg_loos)
if index%101==99:
test_files=random.sample(test,100)
test_image,test_label=read_img(test_files)
test_images=torch.stack(test_image,0).cuda()
test_labels=torch.stack(test_label,0).cuda()
test_h=model(test_images)
_,prediction=torch.max(test_h.data,1)
total=test_labels.size(0)
correct=(prediction==test_labels).sum()
print('100張測(cè)試集準(zhǔn)確率%d %%'%(100*correct/total))
torch.save(model.state_dict(),'resnet_caiq猜拳.pth')

第五步:加載模型,進(jìn)行測(cè)試:
model.load_state_dict(torch.load('resnet_caiq猜拳.pth'))
labels={0:'rock',1:'paper',2:'scissors'}
images=[]
image=Image.open(r'E:\桌面\1.png')
image=image.convert('RGB')
image=image.resize((64,64))
image=transs(image)
images.append(image)
image= torch.stack(images, 0).cuda()
label=model(image)
_,prediction=torch.max(label.data,1)
print("預(yù)測(cè)類別",labels[prediction.item()])


三、總結(jié)
本文只是簡(jiǎn)單介紹了,通過pytorch訓(xùn)練resnet模型。調(diào)用訓(xùn)練好的模型,對(duì)圖片,視頻,攝像頭進(jìn)行檢測(cè)。
本文只是簡(jiǎn)單對(duì)圖片進(jìn)行檢測(cè),得到預(yù)測(cè)結(jié)果。
在這里運(yùn)用了resnet18模型進(jìn)行訓(xùn)練,其實(shí)還有更好的模型,得到更好的訓(xùn)練結(jié)果。
在目標(biāo)檢測(cè)領(lǐng)域,最著名的是YOLO,檢測(cè)速度非??欤趯?shí)時(shí)檢測(cè)領(lǐng)域很受歡迎,在一些游戲上,可以通過YOLO腳本,實(shí)現(xiàn)自動(dòng)鎖定,追蹤之類的,比如現(xiàn)在歡迎的吃雞游戲,玩家通過腳本,實(shí)現(xiàn)自動(dòng)識(shí)別人,進(jìn)行射擊操作。在yolov3中,作者提到過yolo已經(jīng)運(yùn)用到軍事中,出于道德層面的考慮,作者暫停了yolo的更新,在這之后v4,v5,v6以及之后的版本都是一些大佬接棒的。
在實(shí)時(shí)檢測(cè)中,現(xiàn)在AI在一些方面已經(jīng)超越人類了,在準(zhǔn)確率上雖然人腦的高層次演繹歸納能力是遠(yuǎn)勝于AI的,但是在低級(jí)信息處理速度和精確度上,人類就很難比得過專精某個(gè)功能的AI了。
以上就是Pytorch卷積神經(jīng)網(wǎng)絡(luò)resent網(wǎng)絡(luò)實(shí)踐的詳細(xì)內(nèi)容,更多關(guān)于卷積神經(jīng)網(wǎng)絡(luò)resent的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!
- Pytorch搭建簡(jiǎn)單的卷積神經(jīng)網(wǎng)絡(luò)(CNN)實(shí)現(xiàn)MNIST數(shù)據(jù)集分類任務(wù)
- Pytorch卷積神經(jīng)網(wǎng)絡(luò)遷移學(xué)習(xí)的目標(biāo)及好處
- Pytorch深度學(xué)習(xí)經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)resnet模塊訓(xùn)練
- pytorch加載的cifar10數(shù)據(jù)集過程詳解
- pytorch中的模型訓(xùn)練(以CIFAR10數(shù)據(jù)集為例)
- Pytorch使用卷積神經(jīng)網(wǎng)絡(luò)對(duì)CIFAR10圖片進(jìn)行分類方式
相關(guān)文章
Python的__builtin__模塊中的一些要點(diǎn)知識(shí)
這篇文章主要介紹了Python的__builtin__模塊中的一些要點(diǎn)知識(shí),是Python學(xué)習(xí)中的基礎(chǔ),需要的朋友可以參考下2015-05-05
python使用BeautifulSoup分析網(wǎng)頁信息的方法
這篇文章主要介紹了python使用BeautifulSoup分析網(wǎng)頁信息的方法,涉及Python使用BeautifulSoup模塊分析網(wǎng)頁信息的技巧,非常具有實(shí)用價(jià)值,需要的朋友可以參考下2015-04-04
python3實(shí)現(xiàn)語音轉(zhuǎn)文字(語音識(shí)別)和文字轉(zhuǎn)語音(語音合成)
這篇文章主要介紹了python3實(shí)現(xiàn)語音轉(zhuǎn)文字(語音識(shí)別)和文字轉(zhuǎn)語音(語音合成),文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-10-10
詳解基于python的全局與局部序列比對(duì)的實(shí)現(xiàn)(DNA)
這篇文章主要介紹了詳解基于python的全局與局部序列比對(duì)的實(shí)現(xiàn)(DNA).文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-10-10
python實(shí)現(xiàn)靜態(tài)服務(wù)器
這篇文章主要為大家詳細(xì)介紹了python實(shí)現(xiàn)靜態(tài)服務(wù)器,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2019-09-09

