PyTorch實(shí)現(xiàn)MNIST數(shù)據(jù)集手寫數(shù)字識(shí)別詳情
前言:
本篇文章基于卷積神經(jīng)網(wǎng)絡(luò)CNN,使用PyTorch實(shí)現(xiàn)MNIST數(shù)據(jù)集手寫數(shù)字識(shí)別。
一、PyTorch是什么?
PyTorch 是一個(gè) Torch7 團(tuán)隊(duì)開源的 Python 優(yōu)先的深度學(xué)習(xí)框架,提供兩個(gè)高級(jí)功能:
- 強(qiáng)大的 GPU 加速 Tensor 計(jì)算(類似 numpy)
- 構(gòu)建基于 tape 的自動(dòng)升級(jí)系統(tǒng)上的深度神經(jīng)網(wǎng)絡(luò)
你可以重用你喜歡的 python 包,如 numpy、scipy 和 Cython ,在需要時(shí)擴(kuò)展 PyTorch。
二、程序示例
下面案例可供運(yùn)行參考
1.引入必要庫
import torchvision import torch from torch.utils.data import DataLoader import torch.nn.functional as F
2.下載數(shù)據(jù)集
這里設(shè)置download=True,將會(huì)自動(dòng)下載數(shù)據(jù)集,并存儲(chǔ)在./data文件夾。
train_data = torchvision.datasets.MNIST(root="./data",train=True,transform=torchvision.transforms.ToTensor(),download=True) test_data = torchvision.datasets.MNIST(root="./data",train=False,transform=torchvision.transforms.ToTensor(),download=True)
3.加載數(shù)據(jù)集
batch_size=32表示每一個(gè)batch中包含32張手寫數(shù)字圖片,shuffle=True表示打亂測(cè)試集(data和target仍一一對(duì)應(yīng))
train_loader = DataLoader(train_data,batch_size=32,shuffle=True) test_loader = DataLoader(test_data,batch_size=32,shuffle=False)
4.搭建CNN模型并實(shí)例化
class Net(torch.nn.Module):
def __init__(self):
super(Net,self).__init__()
self.con1 = torch.nn.Conv2d(1,10,kernel_size=5)
self.con2 = torch.nn.Conv2d(10,20,kernel_size=5)
self.pooling = torch.nn.MaxPool2d(2)
self.fc = torch.nn.Linear(320,10)
def forward(self,x):
batch_size = x.size(0)
x = F.relu(self.pooling(self.con1(x)))
x = F.relu(self.pooling(self.con2(x)))
x = x.view(batch_size,-1)
x = self.fc(x)
return x
#模型實(shí)例化
model = Net()5.交叉熵?fù)p失函數(shù)損失函數(shù)及SGD算法優(yōu)化器
lossfun = torch.nn.CrossEntropyLoss() opt = torch.optim.SGD(model.parameters(),lr=0.01,momentum=0.5)
6.訓(xùn)練函數(shù)
def train(epoch):
running_loss = 0.0
for i,(inputs,targets) in enumerate(train_loader,0):
# inputs,targets = inputs.to(device),targets.to(device)
opt.zero_grad()
outputs = model(inputs)
loss = lossfun(outputs,targets)
loss.backward()
opt.step()
running_loss += loss.item()
if i % 300 == 299:
print('[%d,%d] loss:%.3f' % (epoch+1,i+1,running_loss/300))
running_loss = 0.07.測(cè)試函數(shù)
def test():
total = 0
correct = 0
with torch.no_grad():
for (inputs,targets) in test_loader:
# inputs, targets = inputs.to(device), targets.to(device)
outputs = model(inputs)
_,predicted = torch.max(outputs.data,dim=1)
total += targets.size(0)
correct += (predicted == targets).sum().item()
print(100*correct/total)8.運(yùn)行
if __name__ == '__main__':
for epoch in range(20):
train(epoch)
test()三、總結(jié)
到此這篇關(guān)于PyTorch實(shí)現(xiàn)MNIST數(shù)據(jù)集手寫數(shù)字識(shí)別詳情的文章就介紹到這了,更多相關(guān)PyTorch MNIST 內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
Python實(shí)現(xiàn)Smtplib發(fā)送帶有各種附件的郵件實(shí)例
本篇文章主要介紹了Python實(shí)現(xiàn)Smtplib發(fā)送帶有各種附件的郵件實(shí)例,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2017-06-06
Python?GUI實(shí)現(xiàn)PDF轉(zhuǎn)Word功能
這篇文章主要介紹了如何使用?wxPython?創(chuàng)建一個(gè)簡(jiǎn)單的圖形用戶界面(GUI)應(yīng)用程序,結(jié)合?pdf2docx?庫,實(shí)現(xiàn)將?PDF?轉(zhuǎn)換為?Word?文檔的功能,需要的可以參考下2024-12-12
Python numpy線性代數(shù)用法實(shí)例解析
這篇文章主要介紹了Python numpy線性代數(shù)用法實(shí)例解析,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2019-11-11
Python爬取股票信息,并可視化數(shù)據(jù)的示例
這篇文章主要介紹了Python爬取股票信息,并可視化數(shù)據(jù)的示例,幫助大家更好的理解和使用python爬蟲,感興趣的朋友可以了解下2020-09-09
python使用fork實(shí)現(xiàn)守護(hù)進(jìn)程的方法
守護(hù)進(jìn)程(Daemon)也稱為精靈進(jìn)程是一種生存期較長(zhǎng)的一種進(jìn)程。它們獨(dú)立于控制終端并且周期性的執(zhí)行某種任務(wù)或等待處理某些發(fā)生的事件。他們常常在系統(tǒng)引導(dǎo)裝入時(shí)啟動(dòng),在系統(tǒng)關(guān)閉時(shí)終止。2017-11-11
入門tensorflow教程之TensorBoard可視化模型訓(xùn)練
在本篇文章中,主要介紹 了TensorBoard 的基礎(chǔ)知識(shí),并了解如何可視化訓(xùn)練模型中的一些基本信息,希望對(duì)大家的TensorBoard可視化模型訓(xùn)練有所幫助2021-08-08

