pytorch機器學習softmax回歸的簡潔實現(xiàn)
通過深度學習框架的高級API也能更方便地實現(xiàn)分類模型。讓我們繼續(xù)使用Fashion-MNIST數(shù)據(jù)集,并保持批量大小為256。
import torch from torch import nn from d2l import torch as d2l
batch_size = 256 train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)
初始化模型參數(shù)
由于sofrmax回歸的輸出層是一個全連接層,因此,為了實現(xiàn)我們的模型,我們只需在Sequential中添加一個帶有10個輸出的全連接層。同樣,在這里,Sequential并不是必要的,但我們可能會形成這種習慣。因為在實現(xiàn)深度模型時,Sequential將無處不在。我們仍然以均值0和標準差0.01隨機初始化權重。
# PyTorch不會隱式地調整輸入的形狀。因此,我們在線性層前定義了展平層(flatten),來調整網絡輸入的形狀 net = nn.Sequential(nn.Flatten(), nn.Linear(784, 10)) def init_weights(m): if type(m) == nn.Linear: nn.init.normal_(m.weight, std=0.01) net.apply(init_weights)
重新審視softmax的實現(xiàn)
在前面的例子中,我們計算了模型的輸出,然后將此輸出送入交叉熵損失。從數(shù)學上講,這是一件完全合理的事情。然而,從計算角度來看,指數(shù)可能會造成數(shù)值穩(wěn)定性的問題,包括上溢和下溢。
我們也希望保留傳統(tǒng)的softmax函數(shù),以備我們需要評估通過模型輸出的概率。但是,我們沒有將softmax概率傳遞到損失函數(shù)中,而是在交叉熵損失函數(shù)中傳遞未歸一化的預測,并同時計算softmax及其對數(shù)。
loss = nn.CrossEntropyLoss()
優(yōu)化算法
在這里,我們使用學習率為0.1的小批量隨機梯度下降作為優(yōu)化算法。這與我們在線性回歸例子中的相同,這說明了優(yōu)化器的普適性。
trainer = torch.optim.SGD(net.parameters(), lr=0.1)

以上就是pytorch機器學習softmax回歸的簡潔實現(xiàn)的詳細內容,更多關于pytorch機器學習softmax回歸的資料請關注腳本之家其它相關文章!
相關文章
Python移動測試開發(fā)subprocess模塊項目實戰(zhàn)
這篇文章主要為大家介紹了Python移動測試開發(fā)subprocess模塊項目實戰(zhàn)示例,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪2022-07-07
Python實現(xiàn)提取JSON文件中指定數(shù)據(jù)并保存至CSV或Excel內
這篇文章主要介紹了如何基于Python語言實現(xiàn)讀取JSON格式的數(shù)據(jù),并將提取到的數(shù)據(jù)保存到.csv格式或.xlsx格式的表格文件中,感興趣的小伙伴可以了解下2023-08-08
Java ExcutorService優(yōu)雅關閉方式解析
這篇文章主要介紹了Java ExcutorService優(yōu)雅關閉方式解析,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下2020-05-05
Python使用matplotlib.pyplot畫熱圖和損失圖的代碼詳解
眾所周知,在完成論文相關工作時畫圖必不可少,如損失函數(shù)圖、熱力圖等是非常常見的圖,在本文中,總結了這兩個圖的畫法,下面給出了完整的代碼,開箱即用,感興趣的同學可以自己動手嘗試一下2023-09-09
linux平臺使用Python制作BT種子并獲取BT種子信息的方法
這篇文章主要介紹了linux平臺使用Python制作BT種子并獲取BT種子信息的方法,結合實例形式詳細分析了Python BT模塊的安裝及針對BT種子文件的相關操作技巧,需要的朋友可以參考下2017-01-01
使用 Django Highcharts 實現(xiàn)數(shù)據(jù)可視化過程解析
這篇文章主要介紹了使用 Django Highcharts 實現(xiàn)數(shù)據(jù)可視化過程解析,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下2019-07-07

