人工智能學習Pytorch數(shù)據(jù)集分割及動量示例詳解
1.數(shù)據(jù)集分割
通過datasets可以直接分別獲取訓練集和測試集。
通常我們會將訓練集進行分割,通過torch.utils.data.random_split方法。
所有的數(shù)據(jù)都需要通過torch.util.data.DataLoader進行加載,才可以得到可以使用的數(shù)據(jù)集。
具體代碼如下:
2.
2.正則化
PyTorch中的正則化和機器學習中的一樣,不過設置方式不一樣。
直接在優(yōu)化器中,設置weight_decay即可。優(yōu)化器中,默認的是L2范式,因此填入的參數(shù)就是lambda。想要使用L1范式的話,需要手動寫出代碼。

3.動量和學習率衰減
動量的設置可以直接在優(yōu)化器中完成。通過momentum參數(shù)設置。
學習率的調(diào)整通過torch.optim.lr_scheduler中的ReduceLROnPlateau,StepLR實現(xiàn)。
ReduceLROnPlateau是自動檢測損失值,并衰減學習率。
StepLR需要手動設置衰減的參數(shù)。

以上就是人工智能學習Pytorch數(shù)據(jù)集分割及動量示例詳解的詳細內(nèi)容,更多關于pytorch數(shù)據(jù)集分割及動量的資料請關注腳本之家其它相關文章!
相關文章
Python模擬登陸網(wǎng)頁的三種方法小結(jié)
如何使用Python模擬登陸網(wǎng)頁,尤其是在涉及到復雜的認證機制時?這篇文章將詳細介紹Python模擬登陸網(wǎng)頁的三種方法,以及如何繞過一些常見的安全防護措施,需要的朋友可以參考下2024-01-01
keras 實現(xiàn)輕量級網(wǎng)絡ShuffleNet教程
這篇文章主要介紹了keras 實現(xiàn)輕量級網(wǎng)絡ShuffleNet教程,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-06-06

