keras 特征圖可視化實(shí)例(中間層)
鑒于最近一段時(shí)間一直在折騰的CNN網(wǎng)絡(luò)效果不太理想,主要目標(biāo)是為了檢測(cè)出圖像中的一些關(guān)鍵點(diǎn),可以參考人臉的關(guān)鍵點(diǎn)檢測(cè)算法。
但是由于從數(shù)據(jù)集的制作是自己完成的,所以數(shù)據(jù)集質(zhì)量可能有待商榷,訓(xùn)練效果不好的原因可能也是因?yàn)閿?shù)據(jù)集沒有制作好(標(biāo)點(diǎn)實(shí)在是太累了)。
于是想看看自己做的數(shù)據(jù)集在進(jìn)入到網(wǎng)絡(luò)后那些中間的隱藏層到底發(fā)生了哪些變化。
今天主要是用已經(jīng)訓(xùn)練好的mnist模型來提前測(cè)試一下,這里的mnist模型的準(zhǔn)確度已經(jīng)達(dá)到了98%左右。
使用的比較簡(jiǎn)單的一個(gè)模型:
def simple_cnn(): input_data = Input(shape=(28, 28, 1)) x = Conv2D(64, kernel_size=3, padding='same', activation='relu', name='conv1')(input_data) x = MaxPooling2D(pool_size=2, strides=2, name='maxpool1')(x) x = Conv2D(32, kernel_size=3, padding='same', activation='relu', name='conv2')(x) x = MaxPooling2D(pool_size=2, strides=2, name='maxpool2')(x) x = Dropout(0.25)(x) # 獲得最后一層卷積層的輸出 # 添加自己的全連接 x = Flatten(name='flatten')(x) x = Dense(128, activation='relu', name='fc1')(x) x = Dropout(0.25)(x) x = Dense(10, activation='softmax', name='fc2')(x) model = Model(inputs=input_data, outputs=x)
此模型已經(jīng)訓(xùn)練好了,跑了10個(gè)epoch,驗(yàn)證集0.33

這里的效果還是很好的,┓( ´∀` )┏
下面在網(wǎng)上搞了張手寫數(shù)字

使用網(wǎng)絡(luò)進(jìn)行預(yù)測(cè),這里就先給出如何可視化第一層的卷積層的輸出吧,哇哈哈
代碼:
input_data = Input(shape=(28, 28, 1))
x = Conv2D(64, kernel_size=3, padding='same', activation='relu', name='conv1')(input_data)
x = MaxPooling2D(pool_size=2, strides=2, name='maxpool1')(x)
x = Conv2D(32, kernel_size=3, padding='same', activation='relu', name='conv2')(x)
x = MaxPooling2D(pool_size=2, strides=2, name='maxpool2')(x)
x = Dropout(0.25)(x)
x = Flatten(name='flatten')(x)
x = Dense(128, activation='relu', name='fc1')(x)
x = Dropout(0.25)(x)
x = Dense(10, activation='softmax', name='fc2')(x)
model = Model(inputs=input_data, outputs=x)
model.load_weights('final_model_mnist_2019_1_28.h5')
raw_img = cv2.imread('test.png')
test_img = load_img('test.png', color_mode='grayscale', target_size=(28, 28))
test_img = np.array(test_img)
test_img = np.expand_dims(test_img, axis=0)
test_img = np.expand_dims(test_img, axis=3)
conv1_layer = Model(inputs=input_data, outputs=model.get_layer(index=1).output)
conv1_output = conv1_layer.predict(test_img)
for i in range(64):
show_img = conv1_output[:, :, :, i]
print(show_img.shape)
show_img.shape = [28,28]
cv2.imshow('img', show_img)
cv2.waitKey(0)
核心方法就是通過加載模型后,新建Model,將輸出部分換為你想要查看的網(wǎng)絡(luò)層數(shù)即可,當(dāng)然get_layer()包括了name和index兩個(gè)參數(shù)。最后通過遍歷當(dāng)前卷積層的所有特征映射,將每一個(gè)都展示出來。就可以了。

以上這篇keras 特征圖可視化實(shí)例(中間層)就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
- keras獲得model中某一層的某一個(gè)Tensor的輸出維度教程
- keras獲得某一層或者某層權(quán)重的輸出實(shí)例
- 淺談keras的深度模型訓(xùn)練過程及結(jié)果記錄方式
- 關(guān)于Keras模型可視化教程及關(guān)鍵問題的解決
- 基于keras 模型、結(jié)構(gòu)、權(quán)重保存的實(shí)現(xiàn)
- 利用keras加載訓(xùn)練好的.H5文件,并實(shí)現(xiàn)預(yù)測(cè)圖片
- keras模型可視化,層可視化及kernel可視化實(shí)例
- 基于keras輸出中間層結(jié)果的2種實(shí)現(xiàn)方式
- PyTorch和Keras計(jì)算模型參數(shù)的例子
- 在keras中獲取某一層上的feature map實(shí)例
相關(guān)文章
關(guān)于adfuller函數(shù)返回值的參數(shù)說明與記錄
這篇文章主要介紹了關(guān)于adfuller函數(shù)返回值的參數(shù)說明與記錄,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2022-11-11
如何利用Python連接MySQL數(shù)據(jù)庫實(shí)現(xiàn)數(shù)據(jù)儲(chǔ)存
當(dāng)我們學(xué)習(xí)了mysql數(shù)據(jù)庫后,我們會(huì)想著該如何將python和mysql結(jié)合起來運(yùn)用,下面這篇文章主要給大家介紹了關(guān)于如何利用Python連接MySQL數(shù)據(jù)庫實(shí)現(xiàn)數(shù)據(jù)儲(chǔ)存的相關(guān)資料,需要的朋友可以參考下2021-11-11
詳解python while 函數(shù)及while和for的區(qū)別
這篇文章主要介紹了python while 函數(shù)及while和for的區(qū)別 ,本文給大家介紹的非常詳細(xì),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2018-09-09
python數(shù)據(jù)結(jié)構(gòu)之線性表的順序存儲(chǔ)結(jié)構(gòu)
這篇文章主要為大家詳細(xì)介紹了python數(shù)據(jù)結(jié)構(gòu)之線性表的順序存儲(chǔ)結(jié)構(gòu),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2018-09-09
簡(jiǎn)單的命令查看安裝的python版本號(hào)
在本篇內(nèi)容里小編給大家整理的是關(guān)于簡(jiǎn)單的命令查看安裝的python版本號(hào)的文章,需要的朋友們可以參考下。2020-08-08

