Tensorflow分類器項(xiàng)目自定義數(shù)據(jù)讀入的實(shí)現(xiàn)
在照著Tensorflow官網(wǎng)的demo敲了一遍分類器項(xiàng)目的代碼后,運(yùn)行倒是成功了,結(jié)果也不錯(cuò)。但是最終還是要訓(xùn)練自己的數(shù)據(jù),所以嘗試準(zhǔn)備加載自定義的數(shù)據(jù),然而demo中只是出現(xiàn)了fashion_mnist.load_data()并沒有詳細(xì)的讀取過程,隨后我又找了些資料,把讀取的過程記錄在這里。
首先提一下需要用到的模塊:
import os import keras import matplotlib.pyplot as plt from PIL import Image from keras.preprocessing.image import ImageDataGenerator from sklearn.model_selection import train_test_split
圖片分類器項(xiàng)目,首先確定你要處理的圖片分辨率將是多少,這里的例子為30像素:
IMG_SIZE_X = 30
IMG_SIZE_Y = 30
其次確定你圖片的方式目錄:
image_path = r'D:\Projects\ImageClassifier\data\set' path = ".\data" # 你也可以使用相對(duì)路徑的方式 # image_path =os.path.join(path, "set")
目錄下的結(jié)構(gòu)如下:

相應(yīng)的label.txt如下:
動(dòng)漫
風(fēng)景
美女
物語(yǔ)
櫻花
接下來(lái)是接在labels.txt,如下:
label_name = "labels.txt"
label_path = os.path.join(path, label_name)
class_names = np.loadtxt(label_path, type(""))
這里簡(jiǎn)便起見,直接利用了numpy的loadtxt函數(shù)直接加載。
之后便是正式處理圖片數(shù)據(jù)了,注釋就寫在里面了:
re_load = False
re_build = False
# re_load = True
re_build = True
data_name = "data.npz"
data_path = os.path.join(path, data_name)
model_name = "model.h5"
model_path = os.path.join(path, model_name)
count = 0
# 這里判斷是否存在序列化之后的數(shù)據(jù),re_load是一個(gè)開關(guān),是否強(qiáng)制重新處理,測(cè)試用,可以去除。
if not os.path.exists(data_path) or re_load:
labels = []
images = []
print('Handle images')
# 由于label.txt是和圖片防止目錄的分類目錄一一對(duì)應(yīng)的,即每個(gè)子目錄的目錄名就是labels.txt里的一個(gè)label,所以這里可以通過讀取class_names的每一項(xiàng)去拼接path后讀取
for index, name in enumerate(class_names):
# 這里是拼接后的子目錄path
classpath = os.path.join(image_path, name)
# 先判斷一下是否是目錄
if not os.path.isdir(classpath):
continue
# limit是測(cè)試時(shí)候用的這里可以去除
limit = 0
for image_name in os.listdir(classpath):
if limit >= max_size:
break
# 這里是拼接后的待處理的圖片path
imagepath = os.path.join(classpath, image_name)
count = count + 1
limit = limit + 1
# 利用Image打開圖片
img = Image.open(imagepath)
# 縮放到你最初確定要處理的圖片分辨率大小
img = img.resize((IMG_SIZE_X, IMG_SIZE_Y))
# 轉(zhuǎn)為灰度圖片,這里彩色通道會(huì)干擾結(jié)果,并且會(huì)加大計(jì)算量
img = img.convert("L")
# 轉(zhuǎn)為numpy數(shù)組
img = np.array(img)
# 由(30,30)轉(zhuǎn)為(1,30,30)(即`channels_first`),當(dāng)然你也可以轉(zhuǎn)換為(30,30,1)(即`channels_last`)但為了之后預(yù)覽處理后的圖片方便這里采用了(1,30,30)的格式存放
img = np.reshape(img, (1, IMG_SIZE_X, IMG_SIZE_Y))
# 這里利用循環(huán)生成labels數(shù)據(jù),其中存放的實(shí)際是class_names中對(duì)應(yīng)元素的索引
labels.append([index])
# 添加到images中,最后統(tǒng)一處理
images.append(img)
# 循環(huán)中一些狀態(tài)的輸出,可以去除
print("{} class: {} {} limit: {} {}"
.format(count, index + 1, class_names[index], limit, imagepath))
# 最后一次性將images和labels都轉(zhuǎn)換成numpy數(shù)組
npy_data = np.array(images)
npy_labels = np.array(labels)
# 處理數(shù)據(jù)只需要一次,所以我們選擇在這里利用numpy自帶的方法將處理之后的數(shù)據(jù)序列化存儲(chǔ)
np.savez(data_path, x=npy_data, y=npy_labels)
print("Save images by npz")
else:
# 如果存在序列化號(hào)的數(shù)據(jù),便直接讀取,提高速度
npy_data = np.load(data_path)["x"]
npy_labels = np.load(data_path)["y"]
print("Load images by npz")
image_data = npy_data
labels_data = npy_labels
到了這里原始數(shù)據(jù)的加工預(yù)處理便已經(jīng)完成,只需要最后一步,就和demo中fashion_mnist.load_data()返回的結(jié)果一樣了。代碼如下:
# 最后一步就是將原始數(shù)據(jù)分成訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù) train_images, test_images, train_labels, test_labels = \ train_test_split(image_data, labels_data, test_size=0.2, random_state=6)
這里將相關(guān)信息打印的方法也附上:
print("_________________________________________________________________")
print("%-28s %-s" % ("Name", "Shape"))
print("=================================================================")
print("%-28s %-s" % ("Image Data", image_data.shape))
print("%-28s %-s" % ("Labels Data", labels_data.shape))
print("=================================================================")
print('Split train and test data,p=%')
print("_________________________________________________________________")
print("%-28s %-s" % ("Name", "Shape"))
print("=================================================================")
print("%-28s %-s" % ("Train Images", train_images.shape))
print("%-28s %-s" % ("Test Images", test_images.shape))
print("%-28s %-s" % ("Train Labels", train_labels.shape))
print("%-28s %-s" % ("Test Labels", test_labels.shape))
print("=================================================================")
之后別忘了歸一化喲:
print("Normalize images")
train_images = train_images / 255.0
test_images = test_images / 255.0
最后附上讀取自定義數(shù)據(jù)的完整代碼:
import os import keras import matplotlib.pyplot as plt from PIL import Image from keras.layers import * from keras.models import * from keras.optimizers import Adam from keras.preprocessing.image import ImageDataGenerator from sklearn.model_selection import train_test_split os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' # 支持中文 plt.rcParams['font.sans-serif'] = ['SimHei'] # 用來(lái)正常顯示中文標(biāo)簽 plt.rcParams['axes.unicode_minus'] = False # 用來(lái)正常顯示負(fù)號(hào) re_load = False re_build = False # re_load = True re_build = True epochs = 50 batch_size = 5 count = 0 max_size = 2000000000
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
使用Python內(nèi)置的模塊與函數(shù)進(jìn)行不同進(jìn)制的數(shù)的轉(zhuǎn)換
這篇文章主要介紹了使用Python內(nèi)置的模塊與函數(shù)進(jìn)行不同進(jìn)制的數(shù)的轉(zhuǎn)換的方法,Python也使得讀取純二進(jìn)制文件內(nèi)容非常方便,需要的朋友可以參考下2016-03-03
關(guān)于python pygame游戲進(jìn)行聲音添加的技巧
這篇文章主要給大家分享的是pygame游戲進(jìn)行聲音添加的方法,這文中介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們一定要看完!2021-10-10
python 匿名函數(shù)相關(guān)總結(jié)
這篇文章主要介紹了python 匿名函數(shù)的的相關(guān)資料,幫助大家更好的理解和學(xué)習(xí)使用python,感興趣的朋友可以了解下2021-03-03
使用Python的Flask框架構(gòu)建大型Web應(yīng)用程序的結(jié)構(gòu)示例
雖說Flask是一個(gè)以輕量級(jí)著稱的框架,但也為大型Web應(yīng)用提供了諸如單元測(cè)試與數(shù)據(jù)庫(kù)遷移等許多便利的功能,這里我們來(lái)看一下使用Python的Flask框架構(gòu)建大型Web應(yīng)用程序的結(jié)構(gòu)示例:2016-06-06
20個(gè)Python中正則表達(dá)式的應(yīng)用與技巧小結(jié)
正則表達(dá)式是一種用來(lái)匹配字符串的模式,它可以在文本中搜索和匹配特定的字符串模式,本文我們將探討?Python?中?re?模塊的應(yīng)用和一些技巧,希望可以幫助您更好地理解和利用正則表達(dá)式2024-04-04
Python中threading模塊的Lock和RLock區(qū)別詳解
這篇文章主要介紹了Python中threading模塊的Lock和RLock區(qū)別詳解,Lock鎖是Python的原始鎖,在鎖定時(shí)不屬于任何一個(gè)線程,在調(diào)用了 lock.acquire() 方法后,進(jìn)入鎖定狀態(tài),lock.release()方法可以解鎖,底層是通過一個(gè)函數(shù)來(lái)實(shí)現(xiàn)的,需要的朋友可以參考下2023-09-09
Python中的多線程實(shí)例(簡(jiǎn)單易懂)
這篇文章主要介紹了Python中的多線程實(shí)例,一個(gè)CPU,將時(shí)間切成一片一片的,CPU輪轉(zhuǎn)著去處理一件一件的事情,到了規(guī)定的時(shí)間片就處理下一件事情,更多的相關(guān)內(nèi)容需要的小伙伴可以參考下面文章詳細(xì)2022-06-06

