Python使用numpy實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)
本文完全利用numpy實現(xiàn)一個簡單的BP神經(jīng)網(wǎng)絡(luò),由于是做regression而不是classification,因此在這里輸出層選取的激勵函數(shù)就是f(x)=x。BP神經(jīng)網(wǎng)絡(luò)的具體原理此處不再介紹。
import numpy as np
class NeuralNetwork(object):
def __init__(self, input_nodes, hidden_nodes, output_nodes, learning_rate):
# Set number of nodes in input, hidden and output layers.設(shè)定輸入層、隱藏層和輸出層的node數(shù)目
self.input_nodes = input_nodes
self.hidden_nodes = hidden_nodes
self.output_nodes = output_nodes
# Initialize weights,初始化權(quán)重和學(xué)習(xí)速率
self.weights_input_to_hidden = np.random.normal(0.0, self.hidden_nodes**-0.5,
( self.hidden_nodes, self.input_nodes))
self.weights_hidden_to_output = np.random.normal(0.0, self.output_nodes**-0.5,
(self.output_nodes, self.hidden_nodes))
self.lr = learning_rate
# 隱藏層的激勵函數(shù)為sigmoid函數(shù),Activation function is the sigmoid function
self.activation_function = (lambda x: 1/(1 + np.exp(-x)))
def train(self, inputs_list, targets_list):
# Convert inputs list to 2d array
inputs = np.array(inputs_list, ndmin=2).T # 輸入向量的shape為 [feature_diemension, 1]
targets = np.array(targets_list, ndmin=2).T
# 向前傳播,F(xiàn)orward pass
# TODO: Hidden layer
hidden_inputs = np.dot(self.weights_input_to_hidden, inputs) # signals into hidden layer
hidden_outputs = self.activation_function(hidden_inputs) # signals from hidden layer
# 輸出層,輸出層的激勵函數(shù)就是 y = x
final_inputs = np.dot(self.weights_hidden_to_output, hidden_outputs) # signals into final output layer
final_outputs = final_inputs # signals from final output layer
### 反向傳播 Backward pass,使用梯度下降對權(quán)重進行更新 ###
# 輸出誤差
# Output layer error is the difference between desired target and actual output.
output_errors = (targets_list-final_outputs)
# 反向傳播誤差 Backpropagated error
# errors propagated to the hidden layer
hidden_errors = np.dot(output_errors, self.weights_hidden_to_output)*(hidden_outputs*(1-hidden_outputs)).T
# 更新權(quán)重 Update the weights
# 更新隱藏層與輸出層之間的權(quán)重 update hidden-to-output weights with gradient descent step
self.weights_hidden_to_output += output_errors * hidden_outputs.T * self.lr
# 更新輸入層與隱藏層之間的權(quán)重 update input-to-hidden weights with gradient descent step
self.weights_input_to_hidden += (inputs * hidden_errors * self.lr).T
# 進行預(yù)測
def run(self, inputs_list):
# Run a forward pass through the network
inputs = np.array(inputs_list, ndmin=2).T
#### 實現(xiàn)向前傳播 Implement the forward pass here ####
# 隱藏層 Hidden layer
hidden_inputs = np.dot(self.weights_input_to_hidden, inputs) # signals into hidden layer
hidden_outputs = self.activation_function(hidden_inputs) # signals from hidden layer
# 輸出層 Output layer
final_inputs = np.dot(self.weights_hidden_to_output, hidden_outputs) # signals into final output layer
final_outputs = final_inputs # signals from final output layer
return final_outputs
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
學(xué)會用Python實現(xiàn)滑雪小游戲,再也不用去北海道啦
Python除了極少的事情不能做之外,其他基本上可以說全能.,圖形處理、文本處理、數(shù)據(jù)庫編程、網(wǎng)絡(luò)編程、web編程、黑客編程、爬蟲編寫、機器學(xué)習(xí)、人工智能等.接下來我就教大家做一個不用去北海道也可以滑雪的小游戲,需要的朋友可以參考下2021-05-05
Python用SSH連接到網(wǎng)絡(luò)設(shè)備
這篇文章主要介紹了Python用SSH連接到網(wǎng)絡(luò)設(shè)備,幫助大家更好的理解和使用python,感興趣的朋友可以了解下2021-02-02
Python設(shè)計模式中的結(jié)構(gòu)型適配器模式
這篇文章主要介紹了Python設(shè)計中的結(jié)構(gòu)型適配器模式,適配器模式即Adapter?Pattern,將一個類的接口轉(zhuǎn)換成為客戶希望的另外一個接口,下文內(nèi)容具有一定的參考價值,需要的小伙伴可以參考一下2022-02-02
python實現(xiàn)飛機大戰(zhàn)(面向過程)
這篇文章主要為大家詳細介紹了python面向過程實現(xiàn)飛機大戰(zhàn),文中示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下2022-05-05
python學(xué)習(xí)之whl文件解釋與安裝詳解
whl格式本質(zhì)上是一個壓縮包,里面包含了py文件,以及經(jīng)過編譯的pyd文件,下面這篇文章主要給大家介紹了關(guān)于python學(xué)習(xí)之whl文件解釋與安裝的相關(guān)資料,文中通過實例代碼介紹的非常詳細,需要的朋友可以參考下2022-09-09
Python采集股票數(shù)據(jù)并制作可視化柱狀圖
這篇文章主要介紹了如何利用Python采集股票數(shù)據(jù)并制作可視化柱狀圖,文中的示例代碼講解詳細,快來跟上小編一起動手嘗試一下吧2022-04-04

