Python深度學習神經(jīng)網(wǎng)絡(luò)基本原理
神經(jīng)網(wǎng)絡(luò)




梯度下降法
在詳細了解梯度下降的算法之前,我們先看看相關(guān)的一些概念。
1. 步長(Learning rate):步長決定了在梯度下降迭代的過程中,每一步沿梯度負方向前進的長度。用上面下山的例子,步長就是在當前這一步所在位置沿著最陡峭最易下山的位置走的那一步的長度。
2.特征(feature):指的是樣本中輸入部分,比如2個單特征的樣本(x(0),y(0)),(x(1),y(1))(x(0),y(0)),(x(1),y(1)),則第一個樣本特征為x(0)x(0),第一個樣本輸出為y(0)y(0)。
3. 假設(shè)函數(shù)(hypothesis function):在監(jiān)督學習中,為了擬合輸入樣本,而使用的假設(shè)函數(shù),記為hθ(x)hθ(x)。比如對于單個特征的m個樣本(x(i),y(i))(i=1,2,...m)(x(i),y(i))(i=1,2,...m),可以采用擬合函數(shù)如下: hθ(x)=θ0+θ1xhθ(x)=θ0+θ1x。
4. 損失函數(shù)(loss function):為了評估模型擬合的好壞,通常用損失函數(shù)來度量擬合的程度。損失函數(shù)極小化,意味著擬合程度最好,對應(yīng)的模型參數(shù)即為最優(yōu)參數(shù)。在線性回歸中,損失函數(shù)通常為樣本輸出和假設(shè)函數(shù)的差取平方。比如對于m個樣本(xi,yi)(i=1,2,...m)(xi,yi)(i=1,2,...m),采用線性回歸,損失函數(shù)為:
J(θ0,θ1)=∑i=1m(hθ(xi)−yi)2J(θ0,θ1)=∑i=1m(hθ(xi)−yi)2
其中xixi表示第i個樣本特征,yiyi表示第i個樣本對應(yīng)的輸出,hθ(xi)hθ(xi)為假設(shè)函數(shù)。




分享人:張嬌娟
到此這篇關(guān)于Python深度學習神經(jīng)網(wǎng)絡(luò)基本原理的文章就介紹到這了,更多相關(guān)Python 神經(jīng)網(wǎng)絡(luò)內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
零基礎(chǔ)寫python爬蟲之urllib2中的兩個重要概念:Openers和Handlers
文章首先介紹了urllib2的2個方法,然后詳細介紹了urllib2中的2個重要概念Openers和Handlers的相關(guān)知識,希望能對大家有所幫助2014-11-11
python中sort()和sorted()的區(qū)別及用法實例
我們通常會遇到對數(shù)據(jù)庫中的數(shù)據(jù)進行排序的問題,下面這篇文章主要給大家介紹了關(guān)于python中sort()和sorted()的區(qū)別及用法的相關(guān)資料,文中通過實例代碼介紹的非常詳細,需要的朋友可以參考下2022-06-06
利用scrapy將爬到的數(shù)據(jù)保存到mysql(防止重復)
這篇文章主要給大家介紹了關(guān)于利用scrapy將爬到的數(shù)據(jù)保存到mysql(防止重復)的相關(guān)資料,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面來一起看看吧。2018-03-03
python實現(xiàn)協(xié)同過濾推薦算法完整代碼示例
這篇文章主要介紹了python實現(xiàn)協(xié)同過濾推薦算法完整代碼示例,具有一定借鑒價值,需要的朋友可以參考下。2017-12-12

