tf.nn.conv2d與tf.layers.conv2d的區(qū)別及說明
tf.nn.conv2d與tf.layers.conv2d的區(qū)別
在寫CNN中注意到tensorflow目前有tf.nn.conv2d和tf.layers.conv2d這兩個很相似的API.
tf.nn.conv2d, 需要自行傳入初始化好的filter(四個維度),在初始化filter或者說Weights中,已經(jīng)手動選擇了初始化方案,一般用的是tf.truncated_normal。另外tf.nn.conv2d中激活函數(shù)需要另外寫。
而在tf.layers.conv2d中,只要寫入n和size,參數(shù)列表中kernel_initializer默認是None, 不清楚這里的參數(shù)是如何初始化的? tf.layers.conv2d中,激活函數(shù)是一個參數(shù),不需要另外調(diào)用。
問過大神,大神答曰:一般推薦使用tf.layers.下面的函數(shù),用起來方便。但是在tf2.0里,tf.layers.下面的API也都被遺棄了,tf2.0推薦使用keras.layers下面的API。
tf.nn.conv2d

tf.layers.conv2d

tf.nn.conv2d和tf.layers.conv2d的學習
看了很多tensorflow卷積的例子,有的用了tf.nn.conv2d,有的用了tf.layers.conv2d,那么這兩個究竟有啥不同呢?
tf.layers.conv2d(inputs, filters, kernel_size, strides=(1,1), ???????????????????????padding='valid', data_format='channels_last', ??????????????? dilation_rate=(1,1), activation=None, ??????????????? use_bias=True, kernel_initializer=None, ??????????????? bias_initializer=init_ops.zeros_initializer(), ??????????????? kernel_regularizer=None, ??????????????? bias_regularizer=None, ??????????????? activity_regularizer=None, trainable=True, ??????????????? name=None, reuse=None) tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, data_format=None, name=None)
對于卷積來說,作用是一樣的。tf.layers.conv2d 使用tf.nn.convolution作為后端。
一個參數(shù)要注意一下:
filter:是一個4維張量,其type必須和輸入一樣,
[filter_height, filter_width, in_channels, out_channels]
filters:一個整數(shù),輸出空間的維度,也就是卷積核的數(shù)量。
tf.layers.conv2d參數(shù)豐富,一般用于從頭訓練一個模型。
tf.nn.conv2d,一般在下載預訓練好的模型時使用。
所以,喜歡哪個就用哪個咯。
總結(jié)
以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關文章
TensorFlow安裝及jupyter notebook配置方法
下面小編就為大家?guī)硪黄猅ensorFlow安裝及jupyter notebook配置方法。小編覺得挺不錯的,現(xiàn)在就分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2017-09-09
python實現(xiàn)忽略大小寫對字符串列表排序的方法
這篇文章主要介紹了python實現(xiàn)忽略大小寫對字符串列表排序的方法,通過三種不同的方法實現(xiàn)了對字符串的排序,是非常實用的技巧,需要的朋友可以參考下2014-09-09
Python趣味實戰(zhàn)之手把手教你實現(xiàn)舉牌小人生成器
前幾天寫了一個嬰兒級別的爬蟲圖文教程,大家很喜歡.恰好周末看到有人咨詢這個 “舉牌小人” 怎么做?基于此,我想借此為大家再寫一篇 “爬蟲應用” 的文章,教你制作一個好玩兒的 “舉牌小人” ,需要的朋友可以參考下2021-06-06

