TensorFlow 2.0之后動態(tài)分配顯存方式
TensorFlow 2.0之后動態(tài)分配顯存
import tensorflow as tf config = tf.compat.v1.ConfigProto() config.gpu_options.allow_growth = True sess = tf.compat.v1.Session(config = config) tf.compat.v1.keras.backend.set_session(sess)
keras和tensorflow動態(tài)分配顯存
tensoflow或者基于tensorflow的keras,好像默認(rèn)會直接將GPU中所有的顯存都讀過來,然后慢慢用。
這樣如果是服務(wù)器是的話,別人就沒法用了,這里轉(zhuǎn)載了動態(tài)分配顯存的方法:
tensorflow下,加入代碼:
config = tf.ConfigProto() config.gpu_options.allow_growth = True ? #設(shè)置動態(tài)分配顯存 session = tf.Session(config=config, ...)
或者:
config = tf.ConfigProto() config.gpu_options.per_process_gpu_memory_fraction = 0.3 ? #只一次調(diào)用30%的顯存 session = tf.Session(config=config, ...)
對于keras,如果使用tensorflow作為后端,多加一句話就好了:
import os os.environ["CUDA_VISIBLE_DEVICES"] = "1" from keras.backend.tensorflow_backend import set_session config = tf.ConfigProto() config.gpu_options.per_process_gpu_memory_fraction = 0.3 set_session(tf.Session(config=config)) # 此處不同
總結(jié)
以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關(guān)文章
Pandas DataFrame轉(zhuǎn)換為字典的方法
實際開發(fā)中我們可能會遇到一類問題,如何將Pandas DataFrame轉(zhuǎn)換為字典,本文就來介紹一下,感興趣的可以了解一下2021-05-05
Python基礎(chǔ)類繼承重寫實現(xiàn)原理解析
這篇文章主要介紹了Python基礎(chǔ)類繼承重寫實現(xiàn)原理解析,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下2020-04-04
python導(dǎo)出chrome書簽到markdown文件的實例代碼
python導(dǎo)出chrome書簽到markdown文件,主要就是解析chrome的bookmarks文件,然后拼接成markdown格式的字符串,最后輸出到文件即可。下面給大家分享實例代碼,需要的朋友參考下2017-12-12
Python如何優(yōu)雅刪除字符列表空字符及None元素
這篇文章主要介紹了Python如何優(yōu)雅刪除字符列表空字符及None元素,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下2020-06-06
控制Python浮點數(shù)輸出位數(shù)的操作方法
在python的輸出結(jié)果中,尤其是浮點數(shù)的輸出,當(dāng)我們需要寫入文本文件時,最好是采用統(tǒng)一的輸出格式,這樣也能夠增強結(jié)果的可讀性,這篇文章主要介紹了控制Python浮點數(shù)輸出位數(shù)的方法,需要的朋友可以參考下2022-04-04
使用Python和scikit-learn創(chuàng)建混淆矩陣的示例詳解
這篇文章主要介紹了使用Python和scikit-learn創(chuàng)建混淆矩陣的示例詳解,該示例包括生成數(shù)據(jù)集、為數(shù)據(jù)集選擇合適的機器學(xué)習(xí)模型、構(gòu)建、配置和訓(xùn)練它,最后解釋結(jié)果,即混淆矩陣,需要的朋友可以參考下2022-06-06

