python神經(jīng)網(wǎng)絡(luò)tf.name_scope和tf.variable_scope函數(shù)區(qū)別
學(xué)習(xí)前言
最近在學(xué)目標(biāo)檢測……SSD的源碼好復(fù)雜……看了很多版本的SSD源碼,發(fā)現(xiàn)他們會使用tf.variable_scope,剛開始我還以為就是tf.name_scope,才發(fā)現(xiàn)原來兩者是不一樣的
兩者區(qū)別
tf.name_scope()和tf.variable_scope()是兩個作用域,一般與兩個創(chuàng)建/調(diào)用變量的函數(shù)tf.variable() 和tf.get_variable()搭配使用。
為什么要使用兩個不同的作用域方式呢?其主要原因與變量共享相關(guān)。
變量共享主要涉及兩個函數(shù):tf.Variable() 和tf.get_variable()
在tf.variable_scope的作用域下需要使用tf.get_variable()函數(shù),這是因為tf.get_variable()擁有一個變量檢查機(jī)制,會檢測已經(jīng)存在的變量是否設(shè)置為共享變量,當(dāng)同名變量存在共享機(jī)制時,不會報錯,如果并未設(shè)置為共享變量,則報錯。
如果使用tf.Variable() 的話每次都會新建變量。但是很多時候我們希望重用一些變量,所以我們使用到了get_variable(),它會去搜索變量名,有就直接用,沒有再新建。
在進(jìn)行變量共享的時候需要使用到標(biāo)志reuse,當(dāng)reuse = True時是可以共享,F(xiàn)alse時不可以共享。
tf.variable_scope函數(shù)
tf.variable_scope(
name_or_scope,
default_name=None,
values=None,
initializer=None,
regularizer=None,
caching_device=None,
partitioner=None,
custom_getter=None,
reuse=None,
dtype=None,
use_resource=None,
constraint=None,
auxiliary_name_scope=True
)
其中:
1、name_or_scope:范圍的名稱。
2、default_name:如果name_or_scope參數(shù)為None,則使用默認(rèn)的名稱,該名稱將是唯一的;如果提供了name_or_scope,它將不會被使用,因此它不是必需的,并且可以是None。
3、values:傳遞給操作函數(shù)的Tensor參數(shù)列表。
4、initializer:此范圍內(nèi)變量的默認(rèn)初始值設(shè)定項。
5、regularizer:此范圍內(nèi)變量的默認(rèn)正規(guī)化器。
6、caching_device:此范圍內(nèi)變量的默認(rèn)緩存設(shè)備。
7、partitioner:此范圍內(nèi)變量的默認(rèn)分區(qū)程序。
8、custom_getter:此范圍內(nèi)的變量的默認(rèn)自定義吸氣。
9、reuse:可以是True、None或tf.AUTO_REUSE;如果是True,即可以開始共享變量,變量重構(gòu)用;如果是tf.AUTO_REUSE,則我們創(chuàng)建變量(如果它們不存在),否則返回它們(用于在第一輪創(chuàng)建變量);如果是None,則我們繼承父范圍的重用標(biāo)志。
10、dtype:在此范圍中創(chuàng)建的變量類型。
測試代碼
1、使用reuse=True共享變量
import tensorflow as tf
# 初始化第一個v1
with tf.variable_scope("scope1"):
v1 = tf.get_variable("v1",[3,3],tf.float32,initializer=tf.constant_initializer(1))
print(v1.name)
# 不同的作用域
with tf.variable_scope("scope2"):
v1 = tf.get_variable("v1",[3,3],tf.float32,initializer=tf.constant_initializer(1))
print(v1.name)
# 開始共享
with tf.variable_scope("scope1",reuse = True):
v1_share = tf.get_variable("v1",[3,3],tf.float32,initializer=tf.constant_initializer(1))
print(v1_share.name)
運(yùn)行結(jié)果為:
scope1/v1:0
scope2/v1:0
scope1/v1:0
如果在下部再加上
with tf.variable_scope("scope2"):
v1_share = tf.get_variable("v1",[3,3],tf.float32,initializer=tf.constant_initializer(1))
print(v1_share.name)
此時沒有reuse,不能共享,程序報錯。
2、使用AUTO_REUSE共享變量
import tensorflow as tf
# 使用AUTO_REUSE可以直接創(chuàng)建
# 如果reuse = True,初始化第一輪創(chuàng)建的時候會報錯
def demo():
with tf.variable_scope("demo", reuse=tf.AUTO_REUSE):
v = tf.get_variable("v", [1])
return v
v1 = demo()
v2 = demo()
print(v1.name)
運(yùn)行結(jié)果為:
demo/v:0
demo/v:0
以上就是python神經(jīng)網(wǎng)絡(luò)tf.name_scope和tf.variable_scope函數(shù)區(qū)別的詳細(xì)內(nèi)容,更多關(guān)于tf.name_scope和tf.variable_scope的資料請關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
python用pip install時安裝失敗的一系列問題及解決方法
這篇文章主要介紹了python用pip install時安裝失敗的一系列問題,本文給大家介紹的非常詳細(xì),具有一定的參考借鑒價值,需要的朋友可以參考下2020-02-02
基于數(shù)據(jù)歸一化以及Python實現(xiàn)方式
今天小編就為大家分享一篇基于數(shù)據(jù)歸一化以及Python實現(xiàn)方式,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-07-07
python打印當(dāng)前文件的絕對路徑并解決打印為空的問題
這篇文章主要介紹了python打印當(dāng)前文件的絕對路徑并解決打印為空的問題,文中補(bǔ)充介紹了python中對文件路徑的獲取方法,需要的朋友可以參考下2023-03-03
pycharm下配置pyqt5的教程(anaconda虛擬環(huán)境下+tensorflow)
這篇文章主要介紹了pycharm下配置pyqt5的教程(anaconda虛擬環(huán)境下+tensorflow),本文給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下2020-03-03
opencv+playwright滑動驗證碼的實現(xiàn)
滑動驗證碼是常見的驗證碼之一,本文主要介紹了opencv+playwright滑動驗證碼的實現(xiàn),具有一定的參考價值,感興趣的可以了解一下2023-11-11

