tensorflow2.0教程之Keras快速入門
Keras 是一個(gè)用于構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型的高階 API。它可用于快速設(shè)計(jì)原型、高級(jí)研究和生產(chǎn)。 keras的3個(gè)優(yōu)點(diǎn):
方便用戶使用、模塊化和可組合、易于擴(kuò)展
1.導(dǎo)入tf.keras
tensorflow2推薦使用keras構(gòu)建網(wǎng)絡(luò),常見的神經(jīng)網(wǎng)絡(luò)都包含在keras.layer中(最新的tf.keras的版本可能和keras不同)
import tensorflow as tf from tensorflow.keras import layers print(tf.__version__) print(tf.keras.__version__)
2.構(gòu)建簡(jiǎn)單模型
2.1模型堆疊
最常見的模型類型是層的堆疊:tf.keras.Sequential 模型
model = tf.keras.Sequential() model.add(layers.Dense(32, activation='relu')) model.add(layers.Dense(32, activation='relu')) model.add(layers.Dense(10, activation='softmax'))
2.2網(wǎng)絡(luò)配置
tf.keras.layers中網(wǎng)絡(luò)配置:
activation:設(shè)置層的激活函數(shù)。此參數(shù)由內(nèi)置函數(shù)的名稱指定,或指定為可調(diào)用對(duì)象。默認(rèn)情況下,系統(tǒng)不會(huì)應(yīng)用任何激活函數(shù)。
kernel_initializer 和 bias_initializer:創(chuàng)建層權(quán)重(核和偏差)的初始化方案。此參數(shù)是一個(gè)名稱或可調(diào)用對(duì)象,默認(rèn)為 “Glorot uniform” 初始化器。
kernel_regularizer 和 bias_regularizer:應(yīng)用層權(quán)重(核和偏差)的正則化方案,例如 L1 或 L2 正則化。默認(rèn)情況下,系統(tǒng)不會(huì)應(yīng)用正則化函數(shù)。
layers.Dense(32, activation='sigmoid') layers.Dense(32, activation=tf.sigmoid) layers.Dense(32, kernel_initializer='orthogonal') layers.Dense(32, kernel_initializer=tf.keras.initializers.glorot_normal) layers.Dense(32, kernel_regularizer=tf.keras.regularizers.l2(0.01)) layers.Dense(32, kernel_regularizer=tf.keras.regularizers.l1(0.01))
3.訓(xùn)練和評(píng)估
3.1設(shè)置訓(xùn)練流程
構(gòu)建好模型后,通過(guò)調(diào)用 compile 方法配置該模型的學(xué)習(xí)流程:
model = tf.keras.Sequential()
model.add(layers.Dense(32, activation='relu'))
model.add(layers.Dense(32, activation='relu'))
model.add(layers.Dense(10, activation='softmax'))
model.compile(optimizer=tf.keras.optimizers.Adam(0.001),
loss=tf.keras.losses.categorical_crossentropy,
metrics=[tf.keras.metrics.categorical_accuracy])
3.2輸入Numpy數(shù)據(jù)
import numpy as np
train_x = np.random.random((1000, 72))
train_y = np.random.random((1000, 10))
val_x = np.random.random((200, 72))
val_y = np.random.random((200, 10))
model.fit(train_x, train_y, epochs=10, batch_size=100,
validation_data=(val_x, val_y))
3.3tf.data輸入數(shù)據(jù)
dataset = tf.data.Dataset.from_tensor_slices((train_x, train_y))
dataset = dataset.batch(32)
dataset = dataset.repeat()
val_dataset = tf.data.Dataset.from_tensor_slices((val_x, val_y))
val_dataset = val_dataset.batch(32)
val_dataset = val_dataset.repeat()
model.fit(dataset, epochs=10, steps_per_epoch=30,
validation_data=val_dataset, validation_steps=3)
3.4評(píng)估與預(yù)測(cè)
test_x = np.random.random((1000, 72)) test_y = np.random.random((1000, 10)) model.evaluate(test_x, test_y, batch_size=32) test_data = tf.data.Dataset.from_tensor_slices((test_x, test_y)) test_data = test_data.batch(32).repeat() model.evaluate(test_data, steps=30)
# predict result = model.predict(test_x, batch_size=32) print(result)
4.構(gòu)建高級(jí)模型
4.1函數(shù)式api
tf.keras.Sequential 模型是層的簡(jiǎn)單堆疊,無(wú)法表示任意模型。使用 Keras 函數(shù)式 API 可以構(gòu)建復(fù)雜的模型拓?fù)?,例如?/p>
多輸入模型,
多輸出模型,
具有共享層的模型(同一層被調(diào)用多次),
具有非序列數(shù)據(jù)流的模型(例如,殘差連接)。
使用函數(shù)式 API 構(gòu)建的模型具有以下特征:
層實(shí)例可調(diào)用并返回張量。
輸入張量和輸出張量用于定義 tf.keras.Model 實(shí)例。
此模型的訓(xùn)練方式和 Sequential 模型一樣。
input_x = tf.keras.Input(shape=(72,))
hidden1 = layers.Dense(32, activation='relu')(input_x)
hidden2 = layers.Dense(16, activation='relu')(hidden1)
pred = layers.Dense(10, activation='softmax')(hidden2)
model = tf.keras.Model(inputs=input_x, outputs=pred)
model.compile(optimizer=tf.keras.optimizers.Adam(0.001),
loss=tf.keras.losses.categorical_crossentropy,
metrics=['accuracy'])
model.fit(train_x, train_y, batch_size=32, epochs=5)
4.2模型子類化
通過(guò)對(duì) tf.keras.Model 進(jìn)行子類化并定義您自己的前向傳播來(lái)構(gòu)建完全可自定義的模型。在 init 方法中創(chuàng)建層并將它們?cè)O(shè)置為類實(shí)例的屬性。在 call 方法中定義前向傳播
class MyModel(tf.keras.Model):
def __init__(self, num_classes=10):
super(MyModel, self).__init__(name='my_model')
self.num_classes = num_classes
self.layer1 = layers.Dense(32, activation='relu')
self.layer2 = layers.Dense(num_classes, activation='softmax')
def call(self, inputs):
h1 = self.layer1(inputs)
out = self.layer2(h1)
return out
def compute_output_shape(self, input_shape):
shape = tf.TensorShapej(input_shape).as_list()
shape[-1] = self.num_classes
return tf.TensorShape(shape)
model = MyModel(num_classes=10)
model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),
loss=tf.keras.losses.categorical_crossentropy,
metrics=['accuracy'])
model.fit(train_x, train_y, batch_size=16, epochs=5)
4.3自定義層
通過(guò)對(duì) tf.keras.layers.Layer 進(jìn)行子類化并實(shí)現(xiàn)以下方法來(lái)創(chuàng)建自定義層:
build:創(chuàng)建層的權(quán)重。使用 add_weight 方法添加權(quán)重。
call:定義前向傳播。
compute_output_shape:指定在給定輸入形狀的情況下如何計(jì)算層的輸出形狀。
或者,可以通過(guò)實(shí)現(xiàn) get_config 方法和 from_config 類方法序列化層。
class MyLayer(layers.Layer):
def __init__(self, output_dim, **kwargs):
self.output_dim = output_dim
super(MyLayer, self).__init__(**kwargs)
def build(self, input_shape):
shape = tf.TensorShape((input_shape[1], self.output_dim))
self.kernel = self.add_weight(name='kernel1', shape=shape,
initializer='uniform', trainable=True)
super(MyLayer, self).build(input_shape)
def call(self, inputs):
return tf.matmul(inputs, self.kernel)
def compute_output_shape(self, input_shape):
shape = tf.TensorShape(input_shape).as_list()
shape[-1] = self.output_dim
return tf.TensorShape(shape)
def get_config(self):
base_config = super(MyLayer, self).get_config()
base_config['output_dim'] = self.output_dim
return base_config
@classmethod
def from_config(cls, config):
return cls(**config)
model = tf.keras.Sequential(
[
MyLayer(10),
layers.Activation('softmax')
])
model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),
loss=tf.keras.losses.categorical_crossentropy,
metrics=['accuracy'])
model.fit(train_x, train_y, batch_size=16, epochs=5)
4.3回調(diào)
callbacks = [
tf.keras.callbacks.EarlyStopping(patience=2, monitor='val_loss'),
tf.keras.callbacks.TensorBoard(log_dir='./logs')
]
model.fit(train_x, train_y, batch_size=16, epochs=5,
callbacks=callbacks, validation_data=(val_x, val_y))
5保持和恢復(fù)
5.1權(quán)重保存
model = tf.keras.Sequential([
layers.Dense(64, activation='relu'),
layers.Dense(10, activation='softmax')])
model.compile(optimizer=tf.keras.optimizers.Adam(0.001),
loss='categorical_crossentropy',
metrics=['accuracy'])
model.save_weights('./weights/model')
model.load_weights('./weights/model')
model.save_weights('./model.h5')
model.load_weights('./model.h5')
5.2保存網(wǎng)絡(luò)結(jié)構(gòu)
# 序列化成json import json import pprint json_str = model.to_json() pprint.pprint(json.loads(json_str)) fresh_model = tf.keras.models.model_from_json(json_str) # 保持為yaml格式 #需要提前安裝pyyaml yaml_str = model.to_yaml() print(yaml_str) fresh_model = tf.keras.models.model_from_yaml(yaml_str)
5.3保存整個(gè)模型
model = tf.keras.Sequential([
layers.Dense(10, activation='softmax', input_shape=(72,)),
layers.Dense(10, activation='softmax')
])
model.compile(optimizer='rmsprop',
loss='categorical_crossentropy',
metrics=['accuracy'])
model.fit(train_x, train_y, batch_size=32, epochs=5)
model.save('all_model.h5')
model = tf.keras.models.load_model('all_model.h5')
6.將keras用于Estimator
Estimator API 用于針對(duì)分布式環(huán)境訓(xùn)練模型。它適用于一些行業(yè)使用場(chǎng)景,例如用大型數(shù)據(jù)集進(jìn)行分布式訓(xùn)練并導(dǎo)出模型以用于生產(chǎn)
model = tf.keras.Sequential([layers.Dense(10,activation='softmax'),
layers.Dense(10,activation='softmax')])
model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),
loss='categorical_crossentropy',
metrics=['accuracy'])
estimator = tf.keras.estimator.model_to_estimator(model)
到此這篇關(guān)于tensorflow2.0教程之Keras快速入門的文章就介紹到這了,更多相關(guān)Keras快速入門內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
關(guān)于Python 實(shí)現(xiàn)tuple和list的轉(zhuǎn)換問(wèn)題
這篇文章主要介紹了Python 實(shí)現(xiàn)tuple和list的轉(zhuǎn)換,文中介紹了list(列表)和tuple(元組)共同點(diǎn)和區(qū)別,結(jié)合實(shí)例代碼給大家介紹的非常詳細(xì),需要的朋友可以參考下2023-05-05
基于Python編寫一個(gè)簡(jiǎn)單的端口掃描器
端口掃描是非常實(shí)用的,不止用在信息安全方面,日常的運(yùn)維也用得到。本文將利用Python編寫一個(gè)簡(jiǎn)單的端口掃描器,需要的可以參考一下2022-04-04
python Django編寫接口并用Jmeter測(cè)試的方法
這篇文章主要介紹了python Django編寫接口并用Jmeter測(cè)試,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2019-07-07
使用python+whoosh實(shí)現(xiàn)全文檢索
今天小編就為大家分享一篇使用python+whoosh實(shí)現(xiàn)全文檢索,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-12-12
python3下使用cv2.imwrite存儲(chǔ)帶有中文路徑圖片的方法
今天小編就為大家分享一篇python3下使用cv2.imwrite存儲(chǔ)帶有中文路徑圖片的方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2018-05-05
python制作機(jī)器人的實(shí)現(xiàn)方法
機(jī)器人自動(dòng)回復(fù)在很多場(chǎng)景中都可以用的上,本文主要介紹了python制作機(jī)器人的實(shí)現(xiàn)方法,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2021-06-06
python中判斷數(shù)字是否為質(zhì)數(shù)的實(shí)例講解
在本篇文章里小編給大家分享了關(guān)于python中判斷數(shù)字是否為質(zhì)數(shù)的實(shí)例講解內(nèi)容,有興趣的朋友們可以學(xué)習(xí)下。2020-12-12
pytorch加載預(yù)訓(xùn)練模型與自己模型不匹配的解決方案
這篇文章主要介紹了pytorch加載預(yù)訓(xùn)練模型與自己模型不匹配的解決方案,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2021-05-05
Python編程新標(biāo)準(zhǔn)學(xué)會(huì)十項(xiàng)好習(xí)慣提升編碼質(zhì)量
這篇文章主要為大家介紹了Python編程新標(biāo)準(zhǔn)學(xué)會(huì)十項(xiàng)好習(xí)慣提升編碼質(zhì)量,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2024-01-01

