PyTorch搭建一維線性回歸模型(二)
PyTorch基礎(chǔ)入門二:PyTorch搭建一維線性回歸模型
1)一維線性回歸模型的理論基礎(chǔ)
給定數(shù)據(jù)集
,線性回歸希望能夠優(yōu)化出一個好的函數(shù)
,使得
能夠和
盡可能接近。
如何才能學(xué)習(xí)到參數(shù)
和
呢?很簡單,只需要確定如何衡量
與
之間的差別,我們一般通過損失函數(shù)(Loss Funciton)來衡量:
。取平方是因為距離有正有負(fù),我們于是將它們變?yōu)槿钦?。這就是著名的均方誤差。我們要做的事情就是希望能夠找到
和
,使得:


均方差誤差非常直觀,也有著很好的幾何意義,對應(yīng)了常用的歐式距離?,F(xiàn)在要求解這個連續(xù)函數(shù)的最小值,我們很自然想到的方法就是求它的偏導(dǎo)數(shù),讓它的偏導(dǎo)數(shù)等于0來估計它的參數(shù),即:


求解以上兩式,我們就可以得到最優(yōu)解。
2)代碼實現(xiàn)
首先,我們需要“制造”出一些數(shù)據(jù)集:
import torch import matplotlib.pyplot as plt x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1) y = 3*x + 10 + torch.rand(x.size()) # 上面這行代碼是制造出接近y=3x+10的數(shù)據(jù)集,后面加上torch.rand()函數(shù)制造噪音 # 畫圖 plt.scatter(x.data.numpy(), y.data.numpy()) plt.show()
我們想要擬合的一維回歸模型是
。上面制造的數(shù)據(jù)集也是比較接近這個模型的,但是為了達(dá)到學(xué)習(xí)效果,人為地加上了torch.rand()值增加一些干擾。
上面人為制造出來的數(shù)據(jù)集的分布如下:

有了數(shù)據(jù),我們就要開始定義我們的模型,這里定義的是一個輸入層和輸出層都只有一維的模型,并且使用了“先判斷后使用”的基本結(jié)構(gòu)來合理使用GPU加速。
class LinearRegression(nn.Module):
def __init__(self):
super(LinearRegression, self).__init__()
self.linear = nn.Linear(1, 1) # 輸入和輸出的維度都是1
def forward(self, x):
out = self.linear(x)
return out
if torch.cuda.is_available():
model = LinearRegression().cuda()
else:
model = LinearRegression()
然后我們定義出損失函數(shù)和優(yōu)化函數(shù),這里使用均方誤差作為損失函數(shù),使用梯度下降進(jìn)行優(yōu)化:
criterion = nn.MSELoss() optimizer = torch.optim.SGD(model.parameters(), lr=1e-2)
接下來,開始進(jìn)行模型的訓(xùn)練。
num_epochs = 1000
for epoch in range(num_epochs):
if torch.cuda.is_available():
inputs = Variable(x).cuda()
target = Variable(y).cuda()
else:
inputs = Variable(x)
target = Variable(y)
# 向前傳播
out = model(inputs)
loss = criterion(out, target)
# 向后傳播
optimizer.zero_grad() # 注意每次迭代都需要清零
loss.backward()
optimizer.step()
if (epoch+1) %20 == 0:
print('Epoch[{}/{}], loss:{:.6f}'.format(epoch+1, num_epochs, loss.data[0]))
首先定義了迭代的次數(shù),這里為1000次,先向前傳播計算出損失函數(shù),然后向后傳播計算梯度,這里需要注意的是,每次計算梯度前都要記得將梯度歸零,不然梯度會累加到一起造成結(jié)果不收斂。為了便于看到結(jié)果,每隔一段時間輸出當(dāng)前的迭代輪數(shù)和損失函數(shù)。
接下來,我們通過model.eval()函數(shù)將模型變?yōu)闇y試模式,然后將數(shù)據(jù)放入模型中進(jìn)行預(yù)測。最后,通過畫圖工具matplotlib看一下我們擬合的結(jié)果,代碼如下:
model.eval() if torch.cuda.is_available(): predict = model(Variable(x).cuda()) predict = predict.data.cpu().numpy() else: predict = model(Variable(x)) predict = predict.data.numpy() plt.plot(x.numpy(), y.numpy(), 'ro', label='Original Data') plt.plot(x.numpy(), predict, label='Fitting Line') plt.show()
其擬合結(jié)果如下圖:

附上完整代碼:
# !/usr/bin/python
# coding: utf8
# @Time : 2018-07-28 18:40
# @Author : Liam
# @Email : luyu.real@qq.com
# @Software: PyCharm
# .::::.
# .::::::::.
# :::::::::::
# ..:::::::::::'
# '::::::::::::'
# .::::::::::
# '::::::::::::::..
# ..::::::::::::.
# ``::::::::::::::::
# ::::``:::::::::' .:::.
# ::::' ':::::' .::::::::.
# .::::' :::: .:::::::'::::.
# .:::' ::::: .:::::::::' ':::::.
# .::' :::::.:::::::::' ':::::.
# .::' ::::::::::::::' ``::::.
# ...::: ::::::::::::' ``::.
# ```` ':. ':::::::::' ::::..
# '.:::::' ':'````..
# 美女保佑 永無BUG
import torch
from torch.autograd import Variable
import numpy as np
import random
import matplotlib.pyplot as plt
from torch import nn
x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1)
y = 3*x + 10 + torch.rand(x.size())
# 上面這行代碼是制造出接近y=3x+10的數(shù)據(jù)集,后面加上torch.rand()函數(shù)制造噪音
# 畫圖
# plt.scatter(x.data.numpy(), y.data.numpy())
# plt.show()
class LinearRegression(nn.Module):
def __init__(self):
super(LinearRegression, self).__init__()
self.linear = nn.Linear(1, 1) # 輸入和輸出的維度都是1
def forward(self, x):
out = self.linear(x)
return out
if torch.cuda.is_available():
model = LinearRegression().cuda()
else:
model = LinearRegression()
criterion = nn.MSELoss()
optimizer = torch.optim.SGD(model.parameters(), lr=1e-2)
num_epochs = 1000
for epoch in range(num_epochs):
if torch.cuda.is_available():
inputs = Variable(x).cuda()
target = Variable(y).cuda()
else:
inputs = Variable(x)
target = Variable(y)
# 向前傳播
out = model(inputs)
loss = criterion(out, target)
# 向后傳播
optimizer.zero_grad() # 注意每次迭代都需要清零
loss.backward()
optimizer.step()
if (epoch+1) %20 == 0:
print('Epoch[{}/{}], loss:{:.6f}'.format(epoch+1, num_epochs, loss.data[0]))
model.eval()
if torch.cuda.is_available():
predict = model(Variable(x).cuda())
predict = predict.data.cpu().numpy()
else:
predict = model(Variable(x))
predict = predict.data.numpy()
plt.plot(x.numpy(), y.numpy(), 'ro', label='Original Data')
plt.plot(x.numpy(), predict, label='Fitting Line')
plt.show()
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
DataFrame 將某列數(shù)據(jù)轉(zhuǎn)為數(shù)組的方法
下面小編就為大家分享一篇DataFrame 將某列數(shù)據(jù)轉(zhuǎn)為數(shù)組的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-04-04
基于asyncio 異步協(xié)程框架實現(xiàn)收集B站直播彈幕
本文給大家分享的是基于asyncio 異步協(xié)程框架實現(xiàn)收集B站直播彈幕收集系統(tǒng)的簡單設(shè)計,并附上源碼,有需要的小伙伴可以參考下2016-09-09
python輸入、數(shù)據(jù)類型轉(zhuǎn)換及運(yùn)算符方式
這篇文章主要介紹了python輸入、數(shù)據(jù)類型轉(zhuǎn)換及運(yùn)算符方式,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教2022-07-07
解決Windows下PowerShell無法進(jìn)入Python虛擬環(huán)境問題
這篇文章主要介紹了解決Windows下PowerShell無法進(jìn)入Python虛擬環(huán)境問題,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教2024-02-02

