python神經(jīng)網(wǎng)絡(luò)Keras構(gòu)建CNN網(wǎng)絡(luò)訓(xùn)練
利用Keras構(gòu)建完普通BP神經(jīng)網(wǎng)絡(luò)后,還要會構(gòu)建CNN
Keras中構(gòu)建CNN的重要函數(shù)
1、Conv2D
Conv2D用于在CNN中構(gòu)建卷積層,在使用它之前需要在庫函數(shù)處import它。
from keras.layers import Conv2D
在實(shí)際使用時,需要用到幾個參數(shù)。
Conv2D(
nb_filter = 32,
nb_row = 5,
nb_col = 5,
border_mode = 'same',
input_shape = (28,28,1)
)
其中,nb_filter代表卷積層的輸出有多少個channel,卷積之后圖像會越來越厚,這就是卷積后圖像的厚度。nb_row和nb_col的組合就是卷積器的大小,這里卷積器是(5,5)的大小。border_mode代表著padding的方式,same表示卷積前后圖像的shape不變。input_shape代表輸入的shape。
2、MaxPooling2D
MaxPooling2D指的是池化層,在使用它之前需要在庫函數(shù)處import它。
from keras.layers import MaxPooling2D
在實(shí)際使用時,需要用到幾個參數(shù)。
MaxPooling2D(
pool_size = (2,2),
strides = (2,2),
border_mode = 'same'
)
其中,pool_size表示池化器的大小,在這里,池化器的shape是(2,2)。strides是池化器的步長,這里在X和Y方向上都是2,池化后,輸出比輸入的shape小了1/2。border_mode代表著padding的方式。
3、Flatten
Flatten用于將卷積池化后最后的輸出變?yōu)橐痪S向量,這樣才可以和全連接層連接,用于計(jì)算。在使用前需要用import導(dǎo)入。
from keras.layers import Flatten
在實(shí)際使用時,在最后一個池化層后直接添加層即可
model.add(Flatten())
全部代碼
這是一個卷積神經(jīng)網(wǎng)絡(luò)的例子,用于識別手寫體,其神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如下:
卷積層1->池化層1->卷積層2->池化層2->flatten->全連接層1->全連接層2->全連接層3。
單個樣本的shape如下:
(28,28,1)->(28,28,32)->(14,14,32)->(14,14,64)->(7,7,64)->(3136)->(1024)->(256)
import numpy as np
from keras.models import Sequential
from keras.layers import Dense,Activation,Conv2D,MaxPooling2D,Flatten ## 全連接層
from keras.datasets import mnist
from keras.utils import np_utils
from keras.optimizers import Adam
(X_train,Y_train),(X_test,Y_test) = mnist.load_data()
X_train = X_train.reshape(-1,28,28,1)
X_test = X_test.reshape(-1,28,28,1)
Y_train = np_utils.to_categorical(Y_train,num_classes= 10)
Y_test = np_utils.to_categorical(Y_test,num_classes= 10)
model = Sequential()
# conv1
model.add(
Conv2D(
nb_filter = 32,
nb_row = 5,
nb_col = 5,
border_mode = 'same',
input_shape = (28,28,1)
)
)
model.add(Activation("relu"))
# pool1
model.add(
MaxPooling2D(
pool_size = (2,2),
strides = (2,2),
border_mode = 'same'
)
)
# conv2
model.add(
Conv2D(
nb_filter = 64,
nb_row = 5,
nb_col = 5,
border_mode = 'same'
)
)
model.add(Activation("relu"))
# pool2
model.add(
MaxPooling2D(
pool_size = (2,2),
strides = (2,2),
border_mode = 'same'
)
)
# 全連接層
model.add(Flatten())
model.add(Dense(1024))
model.add(Activation("relu"))
model.add(Dense(256))
model.add(Activation("relu"))
model.add(Dense(10))
model.add(Activation("softmax"))
adam = Adam(lr = 1e-4)
## compile
model.compile(loss = 'categorical_crossentropy',optimizer = adam,metrics = ['accuracy'])
## tarin
print("\ntraining")
cost = model.fit(X_train,Y_train,nb_epoch = 2,batch_size = 32)
print("\nTest")
## acc
cost,accuracy = model.evaluate(X_test,Y_test)
## W,b = model.layers[0].get_weights()
print("accuracy:",accuracy)
實(shí)驗(yàn)結(jié)果為:
Epoch 1/2 60000/60000 [==============================] - 64s 1ms/step - loss: 0.7664 - acc: 0.9224 Epoch 2/2 60000/60000 [==============================] - 62s 1ms/step - loss: 0.0473 - acc: 0.9858 Test 10000/10000 [==============================] - 2s 169us/step accuracy: 0.9856
以上就是python神經(jīng)網(wǎng)絡(luò)Keras構(gòu)建CNN網(wǎng)絡(luò)訓(xùn)練的詳細(xì)內(nèi)容,更多關(guān)于Keras構(gòu)建CNN網(wǎng)絡(luò)訓(xùn)練的資料請關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
Python數(shù)據(jù)結(jié)構(gòu)與算法中的隊(duì)列詳解(2)
這篇文章主要為大家詳細(xì)介紹了Python中的隊(duì)列,文中示例代碼介紹的非常詳細(xì),具有一定的參考價值,感興趣的小伙伴們可以參考一下,希望能夠給你帶來幫助2022-03-03
Python桌面應(yīng)用開發(fā)實(shí)戰(zhàn)之PyQt的安裝使用
這篇文章主要給大家介紹了關(guān)于Python桌面應(yīng)用開發(fā)實(shí)戰(zhàn)之PyQt的安裝使用,PyQt是一個功能強(qiáng)大的Python庫,用于創(chuàng)建圖形用戶界面(GUI)應(yīng)用程序,需要的朋友可以參考下2023-08-08
python連接手機(jī)自動搜集螞蟻森林能量的實(shí)現(xiàn)代碼
這篇文章主要介紹了python連接手機(jī)自動搜集螞蟻森林能量的實(shí)現(xiàn)方法,本文給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下2021-02-02
Python實(shí)現(xiàn)識別花卉種類的示例代碼
“無窮小亮的科普日?!苯?jīng)常會發(fā)布一些鑒定網(wǎng)絡(luò)熱門生物視頻,既科普了生物知識,又滿足觀眾們的獵奇心理。今天我們也來用Python鑒定一下網(wǎng)絡(luò)熱門植物2022-04-04

