keras 解決加載lstm+crf模型出錯(cuò)的問題
錯(cuò)誤展示
new_model = load_model(“model.h5”)
報(bào)錯(cuò):
1、keras load_model valueError: Unknown Layer :CRF
2、keras load_model valueError: Unknown loss function:crf_loss
錯(cuò)誤修改
1、load_model修改源碼:custom_objects = None 改為 def load_model(filepath, custom_objects, compile=True):
2、new_model = load_model(“model.h5”,custom_objects={‘CRF': CRF,‘crf_loss': crf_loss,‘crf_viterbi_accuracy': crf_viterbi_accuracy}
以上修改后,即可運(yùn)行。
補(bǔ)充知識(shí):用keras搭建bilstm crf
使用 https://github.com/keras-team/keras-contrib實(shí)現(xiàn)的crf layer,
安裝 keras-contrib
pip install git+https://www.github.com/keras-team/keras-contrib.git
Code Example:
# coding: utf-8
from keras.models import Sequential
from keras.layers import Embedding
from keras.layers import LSTM
from keras.layers import Bidirectional
from keras.layers import Dense
from keras.layers import TimeDistributed
from keras.layers import Dropout
from keras_contrib.layers.crf import CRF
from keras_contrib.utils import save_load_utils
VOCAB_SIZE = 2500
EMBEDDING_OUT_DIM = 128
TIME_STAMPS = 100
HIDDEN_UNITS = 200
DROPOUT_RATE = 0.3
NUM_CLASS = 5
def build_embedding_bilstm2_crf_model():
"""
帶embedding的雙向LSTM + crf
"""
model = Sequential()
model.add(Embedding(VOCAB_SIZE, output_dim=EMBEDDING_OUT_DIM, input_length=TIME_STAMPS))
model.add(Bidirectional(LSTM(HIDDEN_UNITS, return_sequences=True)))
model.add(Dropout(DROPOUT_RATE))
model.add(Bidirectional(LSTM(HIDDEN_UNITS, return_sequences=True)))
model.add(Dropout(DROPOUT_RATE))
model.add(TimeDistributed(Dense(NUM_CLASS)))
crf_layer = CRF(NUM_CLASS)
model.add(crf_layer)
model.compile('rmsprop', loss=crf_layer.loss_function, metrics=[crf_layer.accuracy])
return model
def save_embedding_bilstm2_crf_model(model, filename):
save_load_utils.save_all_weights(model,filename)
def load_embedding_bilstm2_crf_model(filename):
model = build_embedding_bilstm2_crf_model()
save_load_utils.load_all_weights(model, filename)
return model
if __name__ == '__main__':
model = build_embedding_bilstm2_crf_model()
注意:
如果執(zhí)行build模型報(bào)錯(cuò),則很可能是keras版本的問題。在keras-contrib==2.0.8且keras==2.0.8時(shí),上面代碼不會(huì)報(bào)錯(cuò)。
以上這篇keras 解決加載lstm+crf模型出錯(cuò)的問題就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
Django 解決model 反向引用中的related_name問題
這篇文章主要介紹了Django 解決model 反向引用中的related_name問題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2020-05-05
python實(shí)時(shí)檢測(cè)鍵盤輸入函數(shù)的示例
今天小編就為大家分享一篇python實(shí)時(shí)檢測(cè)鍵盤輸入函數(shù)的示例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2019-07-07
解決Python設(shè)置函數(shù)調(diào)用超時(shí),進(jìn)程卡住的問題
今天小編就為大家分享一篇解決Python設(shè)置函數(shù)調(diào)用超時(shí),進(jìn)程卡住的問題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2019-08-08
python實(shí)現(xiàn)列車管理系統(tǒng)
這篇文章主要為大家詳細(xì)介紹了python實(shí)現(xiàn)列車管理系統(tǒng),文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2022-09-09
pytorch基礎(chǔ)之損失函數(shù)與反向傳播詳解
損失函數(shù)(Loss?Function)用于衡量神經(jīng)網(wǎng)絡(luò)輸出與目標(biāo)值之間的誤差,指導(dǎo)網(wǎng)絡(luò)通過反向傳播優(yōu)化參數(shù),常見的損失函數(shù)包括均方誤差和交叉熵誤差,在訓(xùn)練過程中,通過不斷最小化損失函數(shù)值來調(diào)整網(wǎng)絡(luò)權(quán)重,以期達(dá)到輸出接近目標(biāo)值的效果2024-09-09
python中實(shí)現(xiàn)根據(jù)坐標(biāo)點(diǎn)位置求方位角
這篇文章主要介紹了python中實(shí)現(xiàn)根據(jù)坐標(biāo)點(diǎn)位置求方位角方式,具有很好的參考價(jià)值,希望對(duì)大家有所幫助,如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2023-08-08

