python神經(jīng)網(wǎng)絡(luò)TensorFlow簡(jiǎn)介常用基本操作教程
要將深度學(xué)習(xí)更快且更便捷地應(yīng)用于新的問(wèn)題中,選擇一款深度學(xué)習(xí)工具是必不可少的步驟。
TensorFlow是谷歌于2015年11月9日正式開(kāi)源的計(jì)算框架。
TensorFlow計(jì)算框架可以很好地支持深度學(xué)習(xí)的各種算法。
TensorFlow很好地兼容了學(xué)術(shù)研究和工業(yè)生產(chǎn)的不同需求。
一方面,TensorFlow的靈活性使得研究人員能夠利用它快速實(shí)現(xiàn)新的模型設(shè)計(jì);
另一方面,TensorFlow強(qiáng)大的分布式支持,對(duì)工業(yè)界在海量數(shù)據(jù)集上進(jìn)行的模型訓(xùn)練也至關(guān)重要。
作為谷歌開(kāi)源的深度學(xué)習(xí)框架,TensorFlow包含了谷歌過(guò)去10年間對(duì)于人工智能的探索和成功的商業(yè)應(yīng)用。
除了TensorFlow,目前還有一些主流的深度學(xué)習(xí)開(kāi)源工具可以使用。每個(gè)工具都有著各自的特點(diǎn),可以根據(jù)自己的需求和喜好選擇適合自己的深度學(xué)習(xí)工具。比如我一開(kāi)始學(xué)習(xí)深度學(xué)習(xí)的時(shí)候接觸的是Caffe,然后TensorFlow開(kāi)源之后了解到了TensorFlow的一些特性,感覺(jué)還是更喜歡TensorFlow的風(fēng)格,當(dāng)然也考慮到會(huì)使用一種以上的深度學(xué)習(xí)工具也算見(jiàn)不錯(cuò)的事情。
其它一些主流的深度學(xué)習(xí)工具
Caffe: http://caffe.berkeleyvision.org/(Convolutional Architecture for Fast Feature Embedding) BVLC
MXNet: http://mxnet.readthedocs.io/en/latest/ (百度 DMLC(分布式機(jī)器學(xué)習(xí)社區(qū)) 簡(jiǎn)稱”深盟”)
Torch: http://torch.ch/(Facebook Google DeepMind Twitter FAIR)
Theano: http://deeplearning.net/software/theano/(the LISA group at the University of Montreal(蒙特利爾))
TensorFlow: https://www.tensorflow.org/(Google)
CNTK(微軟深度學(xué)習(xí)工具包 )
DeepLearning4J: http://deeplearning4j.org/
deepmat: https://github.com/kyunghyuncho/deepmat
Neon: http://neon.nervanasys.com/docs/latest/index.html
Eblearn: http://eblearn.sourceforge.net/
PyLearn: http://deeplearning.net/software/pylearn2/
chainer: https://github.com/pfnet/chainer
Bahrampour S, Ramakrishnan N, Schott L, et al. Comparative Study of Deep Learning Software Frameworks[J]. Computer Science, 2016.
框架對(duì)比
這篇文章對(duì)現(xiàn)在流行的五個(gè)開(kāi)源深度學(xué)習(xí)框架 caffe、Neon、TensorFlow、Theano、Torch 做了很嚴(yán)謹(jǐn)比較。
作者開(kāi)源了他們的比較 Benchmarks 代碼:https://github.com/DL-Benchmarks/DL-Benchmarks
文章比較了:
可擴(kuò)展性(extensibility),hardware utilization(硬件利用率),速度(speed)三個(gè)方面
- 評(píng)估測(cè)試都是部署在單機(jī)上,對(duì)于多線程 CPU、GPU(Nvidia Titan X)都進(jìn)行測(cè)試
- 速度評(píng)估標(biāo)準(zhǔn)包括了梯度計(jì)算時(shí)間(gradient computation time)、前向傳播時(shí)間(forward time)對(duì)于卷積神經(jīng)網(wǎng)絡(luò),作者還
- 對(duì)這幾個(gè)深度框架支持的不同的卷積算法以及相應(yīng)的性能表現(xiàn)做了實(shí)驗(yàn)
通過(guò)實(shí)驗(yàn)得出了以下結(jié)論
- Theano、Torch 是最具擴(kuò)展性的深度學(xué)習(xí)框架
- 在 CPU 上的測(cè)試性能來(lái)看,Torch 最優(yōu),其次是 Theano
- 在 GPU 上的性能表現(xiàn),對(duì)于大規(guī)模卷積以及全連接網(wǎng)絡(luò),還是 Torch 最優(yōu),其次是 Neon
- Theano 在部署和訓(xùn)練 LSTM 網(wǎng)絡(luò)中奪得拔籌caffe 是最容易測(cè)試評(píng)估性能的標(biāo)準(zhǔn)深度學(xué)習(xí)框架
- 最后,TensorFlow 與 Theano 有些相似,是比較靈活的框架,但是其性能表現(xiàn),目前還比不上上面的幾個(gè)框架
但是,畢竟這篇文章已經(jīng)是過(guò)去時(shí)了,那時(shí)候TensorFlow 還只能用 cuDNN v.2 版本,而我現(xiàn)在已經(jīng)裝的是v5.1版本,而且TensorFlow 也已經(jīng)發(fā)布了1.0版本?,F(xiàn)在各工具性能如何,還需要新的評(píng)測(cè)才能說(shuō)明問(wèn)題。
變量:創(chuàng)建、初始化、保存和加載
當(dāng)訓(xùn)練模型時(shí),用變量來(lái)存儲(chǔ)和更新參數(shù)。變量包含張量 (Tensor)存放于內(nèi)存的緩存區(qū)。建模時(shí)它們需要被明確地初始化,模型訓(xùn)練后它們必須被存儲(chǔ)到磁盤。這些變量的值可在之后模型訓(xùn)練和分析是被加載。
本文檔描述以下兩個(gè)TensorFlow類。點(diǎn)擊以下鏈接可查看完整的API文檔:
參考TensorFlow中文社區(qū)
- 添加神經(jīng)層
輸入?yún)?shù)有 inputs, in_size, out_size, 和 activation_function
# 添加層
def add_layer(inputs, in_size, out_size, activation_function=None):
weights = tf.Variable(tf.random_normal([in_size, out_size]), name='weights')
biases = tf.Variable(tf.zeros([1, out_size]) + 0.1, name='biases')
y = tf.matmul(inputs, weights) + biases
if activation_function is None:
outputs = y
else:
outputs = activation_function(y)
return outputs
- loss
loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction), reduction_indices=[1]))
分類問(wèn)題的loss 函數(shù) cross_entropy 交叉熵
loss = tf.reduce_mean(-tf.reduce_sum(ys * tf.log(prediction), reduction_indices=[1]))
- 創(chuàng)建
當(dāng)創(chuàng)建一個(gè)變量時(shí),你將一個(gè)張量作為初始值傳入構(gòu)造函數(shù)Variable()。TensorFlow提供了一系列操作符來(lái)初始化張量,初始值是常量或是隨機(jī)值。
注意,所有這些操作符都需要你指定張量的shape。那個(gè)形狀自動(dòng)成為變量的shape。變量的shape通常是固定的,但TensorFlow提供了高級(jí)的機(jī)制來(lái)重新調(diào)整其行列數(shù)。
# Create two variables. weights = tf.Variable(tf.random_normal([784, 200], stddev=0.35), name="weights") biases = tf.Variable(tf.zeros([200]), name="biases")
- 初始化
變量的初始化必須在模型的其它操作運(yùn)行之前先明確地完成。最簡(jiǎn)單的方法就是添加一個(gè)給所有變量初始化的操作,并在使用模型之前首先運(yùn)行那個(gè)操作。
使用tf.global_variables_initializer()添加一個(gè)操作對(duì)變量做初始化。記得在完全構(gòu)建好模型并加載之后再運(yùn)行那個(gè)操作。
# 7.初始化變量 init = tf.global_variables_initializer() # tf.global_variables_initializer()是并行地初始化所有變量 # 有時(shí)候會(huì)需要用另一個(gè)變量的初始化值給當(dāng)前變量初始化,這就需要注意了 # 用其它變量的值初始化一個(gè)新的變量時(shí),使用其它變量的initialized_value()屬性。 # 你可以直接把已初始化的值作為新變量的初始值,或者把它當(dāng)做tensor計(jì)算得到一個(gè)值賦予新變量。 # w1 = tf.Variable(tf.random_normal([784, 200], stddev=0.35), name="w1") # w2 = tf.Variable(w1.initialized_value(), name="w2") # 8.啟動(dòng)圖 (graph) sess = tf.Session() sess.run(init)
- 由另一個(gè)變量初始化
你有時(shí)候會(huì)需要用另一個(gè)變量的初始化值給當(dāng)前變量初始化。由于tf.global_variables_initializer()是并行地初始化所有變量,所以在有這種需求的情況下需要小心。用其它變量的值初始化一個(gè)新的變量時(shí),使用其它變量的initialized_value()屬性。你可以直接把已初始化的值作為新變量的初始值,或者把它當(dāng)做tensor計(jì)算得到一個(gè)值賦予新變量。
w1 = tf.Variable(tf.random_normal([784, 200], stddev=0.35), name="w1") w2 = tf.Variable(w1.initialized_value(), name="w2")
以上就是python神經(jīng)網(wǎng)絡(luò)TensorFlow簡(jiǎn)介常用基本操作教程的詳細(xì)內(nèi)容,更多關(guān)于TensorFlow基本操作簡(jiǎn)介的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!
- python深度學(xué)習(xí)tensorflow安裝調(diào)試教程
- python深度學(xué)習(xí)TensorFlow神經(jīng)網(wǎng)絡(luò)模型的保存和讀取
- Python深度學(xué)習(xí)TensorFlow神經(jīng)網(wǎng)絡(luò)基礎(chǔ)概括
- Python3.8安裝tensorflow的簡(jiǎn)單方法步驟
- python神經(jīng)網(wǎng)絡(luò)tensorflow利用訓(xùn)練好的模型進(jìn)行預(yù)測(cè)
- python神經(jīng)網(wǎng)絡(luò)使用tensorflow構(gòu)建長(zhǎng)短時(shí)記憶LSTM
- python深度學(xué)習(xí)tensorflow入門基礎(chǔ)教程示例
相關(guān)文章
解決python-docx打包之后找不到default.docx的問(wèn)題
今天小編就為大家分享一篇解決python-docx打包之后找不到default.docx的問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-02-02
Python實(shí)現(xiàn)一個(gè)自助取數(shù)查詢工具
在數(shù)據(jù)生產(chǎn)應(yīng)用部門,取數(shù)分析是一個(gè)很常見(jiàn)的需求,實(shí)際上業(yè)務(wù)人員需求時(shí)刻變化,最高效的方式是讓業(yè)務(wù)部門自己來(lái)取,減少不必要的重復(fù)勞動(dòng),本文介紹如何用Python實(shí)現(xiàn)一個(gè)自助取數(shù)查詢工具2021-06-06
Python 使用 PyQt5 開(kāi)發(fā)的關(guān)機(jī)小工具分享
這篇文章主要介紹了Python 使用 PyQt5 開(kāi)發(fā)的關(guān)機(jī)小工具分享,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-07-07
python 線性回歸分析模型檢驗(yàn)標(biāo)準(zhǔn)--擬合優(yōu)度詳解
今天小編就為大家分享一篇python 線性回歸分析模型檢驗(yàn)標(biāo)準(zhǔn)--擬合優(yōu)度詳解,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-02-02
python實(shí)現(xiàn)通過(guò)pil模塊對(duì)圖片格式進(jìn)行轉(zhuǎn)換的方法
這篇文章主要介紹了python實(shí)現(xiàn)通過(guò)pil模塊對(duì)圖片格式進(jìn)行轉(zhuǎn)換的方法,涉及Python中pil模塊的使用技巧,具有一定參考借鑒價(jià)值,需要的朋友可以參考下2015-03-03
python正向最大匹配分詞和逆向最大匹配分詞的實(shí)例
今天小編就為大家分享一篇python正向最大匹配分詞和逆向最大匹配分詞的實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2018-11-11
python 牛頓法實(shí)現(xiàn)邏輯回歸(Logistic Regression)
這篇文章主要介紹了python 牛頓法實(shí)現(xiàn)邏輯回歸(Logistic Regression),幫助大家更好的進(jìn)行機(jī)器學(xué)習(xí),感興趣的朋友可以了解下2020-10-10
Python編寫運(yùn)維進(jìn)程文件目錄操作實(shí)用腳本示例
這篇文章主要為大家介紹了Python編寫實(shí)用運(yùn)維進(jìn)程文件目錄的操作腳本示例,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2022-05-05
python滑塊驗(yàn)證碼的破解實(shí)現(xiàn)
這篇文章主要介紹了python滑塊驗(yàn)證碼的破解實(shí)現(xiàn),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2019-11-11

