Tensorflow中使用cpu和gpu有什么區(qū)別
使用cpu和gpu的區(qū)別
在Tensorflow中使用gpu和cpu是有很大的差別的。在小數(shù)據(jù)集的情況下,cpu和gpu的性能差別不大。
不過在大數(shù)據(jù)集的情況下,cpu的時(shí)間顯著增加,而gpu變化并不明顯。
不過,我的筆記本電腦的風(fēng)扇終于全功率運(yùn)行了。
import tensorflow as tf
import timeit
import numpy as np
import matplotlib.pyplot as plt
def cpu_run(num):
with tf.device('/cpu:0'):
cpu_a=tf.random.normal([1,num])
cpu_b=tf.random.normal([num,1])
c=tf.matmul(cpu_a,cpu_b)
return c
def gpu_run(num):
with tf.device('/gpu:0'):
gpu_a=tf.random.normal([1,num])
gpu_b=tf.random.normal([num,1])
c=tf.matmul(gpu_a,gpu_b)
return c
k=10
m=7
cpu_result=np.arange(m,dtype=np.float32)
gpu_result=np.arange(m,dtype=np.float32)
x_time=np.arange(m)
for i in range(m):
k=k*10
x_time[i]=k
cpu_str='cpu_run('+str(k)+')'
gpu_str='gpu_run('+str(k)+')'
#print(cpu_str)
cpu_time=timeit.timeit(cpu_str,'from __main__ import cpu_run',number=10)
gpu_time=timeit.timeit(gpu_str,'from __main__ import gpu_run',number=10)
# 正式計(jì)算10次,取平均時(shí)間
cpu_time=timeit.timeit(cpu_str,'from __main__ import cpu_run',number=10)
gpu_time=timeit.timeit(gpu_str,'from __main__ import gpu_run',number=10)
cpu_result[i]=cpu_time
gpu_result[i]=gpu_time
print(cpu_result)
print(gpu_result)
fig, ax = plt.subplots()
ax.set_xscale("log")
ax.set_adjustable("datalim")
ax.plot(x_time,cpu_result)
ax.plot(x_time,gpu_result)
ax.grid()
plt.draw()
plt.show()

藍(lán)線是cpu的耗時(shí),而紅線是gpu的耗時(shí)。
一些術(shù)語的比較(tensorflow和pytorch/cpu和gpu/)
tensorflow和pytorch
- pytorch是一個(gè)動態(tài)框架,tensorflow是一個(gè)靜態(tài)框架。
- tensorflow是一個(gè)靜態(tài)框架體現(xiàn)在:需要先構(gòu)建一個(gè)tensorflow的計(jì)算圖,構(gòu)建好之后這樣的一個(gè)計(jì)算圖是不能變的,然后再傳入不同的數(shù)據(jù)進(jìn)去進(jìn)行計(jì)算。
- 這種靜態(tài)框架帶來的問題是:固定了計(jì)算的流程,勢必帶來不靈活性,如果要改變計(jì)算的邏輯或者是隨著時(shí)間變化的計(jì)算邏輯,這樣的動態(tài)計(jì)算tensorflow是是無法實(shí)現(xiàn)的。
- pytorch是一個(gè)動態(tài)框架,和python的邏輯一樣,對變量做任何操作都是靈活的。
- 一個(gè)好的框架需要具備三點(diǎn):(1)對大的計(jì)算圖能方便的實(shí)現(xiàn)(2)能自動求變量的導(dǎo)數(shù)(3)能簡單的運(yùn)行在GPU上。這三點(diǎn)pytorch都可以達(dá)到
- tensorflow在gpu上的分布式計(jì)算更為出色,在數(shù)據(jù)量巨大的時(shí)候效率比pytorch要高。企業(yè)很多都是用的tensorflow,pytorch在學(xué)術(shù)科研上使用多些。
- pytorch包括三個(gè)層次:tensor/variable/module。tensor即張量的意思,由于是矩陣的運(yùn)算,所以適合在矩陣上跑。variable就是tensor的封裝,封裝的目的就是為了能夠保存住該variable在整個(gè)計(jì)算圖中的位置,能夠知道計(jì)算圖中各個(gè)變量之間的相互依賴關(guān)系,這樣就能夠反向求梯度。module是一個(gè)更高的層次,是一個(gè)神經(jīng)網(wǎng)絡(luò)的層次,可以直接調(diào)用全連接層、卷積層等神經(jīng)網(wǎng)絡(luò)。
cpu和gpu
- cpu更少的核,但是單個(gè)核的計(jì)算能力很強(qiáng)
- gpu:更多的核,每個(gè)核的計(jì)算能力不如cpu,所以更適合做并行計(jì)算,如矩陣計(jì)算,深度學(xué)習(xí)就是很多的矩陣計(jì)算。
cuda
- 直接寫cuda代碼就類似寫匯編語言
- 比cuda高級的是cudnn
- 比cudnn高級的是用框架tensorflow/caffe/pytorch
以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
- 運(yùn)行tensorflow python程序,限制對GPU和CPU的占用操作
- 基于Tensorflow使用CPU而不用GPU問題的解決
- 在tensorflow中設(shè)置使用某一塊GPU、多GPU、CPU的操作
- tensorflow指定CPU與GPU運(yùn)算的方法實(shí)現(xiàn)
- 卸載tensorflow-cpu重裝tensorflow-gpu操作
- 使用Tensorflow-GPU禁用GPU設(shè)置(CPU與GPU速度對比)
- 詳解tf.device()指定tensorflow運(yùn)行的GPU或CPU設(shè)備實(shí)現(xiàn)
- 用gpu訓(xùn)練好的神經(jīng)網(wǎng)絡(luò),用tensorflow-cpu跑出錯(cuò)的原因及解決方案
- tensorflow之如何使用GPU而不是CPU問題
- TensorFlow安裝CPU版本和GPU版本的實(shí)現(xiàn)步驟
相關(guān)文章
Python中實(shí)現(xiàn)ipaddress網(wǎng)絡(luò)地址的處理
ipaddress庫提供了處理IPv4與IPv6網(wǎng)絡(luò)地址的類。這些類支持驗(yàn)證,查找網(wǎng)絡(luò)上的地址和主機(jī),以及其他常見的操作,本文就來介紹一下這些方法的使用,感興趣的一起來了解一下2021-06-06
python實(shí)現(xiàn)統(tǒng)計(jì)代碼行數(shù)的方法
這篇文章主要介紹了python實(shí)現(xiàn)統(tǒng)計(jì)代碼行數(shù)的方法,涉及Python中os模塊及codecs模塊的相關(guān)使用技巧,需要的朋友可以參考下2015-05-05
python實(shí)戰(zhàn)之利用pygame實(shí)現(xiàn)貪吃蛇游戲(二)
這篇文章主要介紹了python實(shí)戰(zhàn)之利用pygame實(shí)現(xiàn)貪吃蛇游戲(二),文中有非常詳細(xì)的代碼示例,對正在學(xué)習(xí)python的小伙伴們有很好的幫助,需要的朋友可以參考下2021-05-05
Ubuntu配置Pytorch on Graph (PoG)環(huán)境過程圖解
這篇文章主要介紹了Ubuntu配置Pytorch on Graph (PoG)環(huán)境過程圖解,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2020-11-11
python實(shí)現(xiàn)調(diào)用攝像頭并拍照發(fā)郵箱
這篇文章主要介紹了python實(shí)現(xiàn)調(diào)用攝像頭并拍照發(fā)郵箱的程序,幫助大家更好的理解和學(xué)習(xí)使用python,感興趣的朋友可以了解下2021-04-04

