細數(shù)nn.BCELoss與nn.CrossEntropyLoss的區(qū)別
以前我瀏覽博客的時候記得別人說過,BCELoss與CrossEntropyLoss都是用于分類問題??梢灾?,BCELoss是Binary CrossEntropyLoss的縮寫,BCELoss CrossEntropyLoss的一個特例,只用于二分類問題,而CrossEntropyLoss可以用于二分類,也可以用于多分類。
不過我重新查閱了一下資料,發(fā)現(xiàn)同樣是處理二分類問題,BCELoss與CrossEntropyLoss是不同的。下面我詳細講一下哪里不同。
1、使用nn.BCELoss需要在該層前面加上Sigmoid函數(shù)。
公式如下:

2、使用nn.CrossEntropyLoss會自動加上Sofrmax層。
公式如下:

可以看出,這兩個計算損失的函數(shù)使用的激活函數(shù)不同,故而最后的計算公式不同。
補充拓展:pytorch的BCELoss和cross entropy
BCELoss:
torch.nn.BCELoss:
Input: (N, *)(N,∗) where *∗ means, any number of additional dimensions Target: (N, *)(N,∗), same shape as the input Output: scalar. If reduction is 'none', then (N, *)(N,∗), same shape as input.
這里的輸入和target 目標必須形狀一致,并且都是浮點數(shù),二分類中一般用sigmoid的把輸出挑出一個數(shù):
>>> m = nn.Sigmoid() >>> loss = nn.BCELoss() >>> input = torch.randn(3, requires_grad=True) >>> target = torch.empty(3).random_(2) >>> output = loss(m(input), target) >>> output.backward()
CrossEntropyLoss:
input(N,C) #n 是batch c是類別 target(N)
輸入和target 形狀是不同的crossEntropy 是自己會做softmax
>>> loss = nn.CrossEntropyLoss() >>> input = torch.randn(3, 5, requires_grad=True) >>> target = torch.empty(3, dtype=torch.long).random_(5) >>> output = loss(input, target) >>> output.backward()
以上這篇細數(shù)nn.BCELoss與nn.CrossEntropyLoss的區(qū)別就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關文章
Pygame庫200行代碼實現(xiàn)簡易飛機大戰(zhàn)
本文主要介紹了Pygame庫200行代碼實現(xiàn)簡易飛機大戰(zhàn),文中通過示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下2021-12-12
Python利用神經(jīng)網(wǎng)絡解決非線性回歸問題實例詳解
這篇文章主要介紹了Python利用神經(jīng)網(wǎng)絡解決非線性回歸問題,結合實例形式詳細分析了Python使用神經(jīng)網(wǎng)絡解決非線性回歸問題的相關原理與實現(xiàn)技巧,需要的朋友可以參考下2019-07-07
python實現(xiàn)數(shù)據(jù)庫跨服務器遷移
這篇文章主要為大家詳細介紹了Python實現(xiàn)數(shù)據(jù)庫之間的數(shù)據(jù)遷移,具有一定的參考價值,感興趣的小伙伴們可以參考一下2018-04-04
PyQt5結合matplotlib繪圖的實現(xiàn)示例
這篇文章主要介紹了PyQt5結合matplotlib繪圖的實現(xiàn)示例,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2020-09-09

