pytorch學習教程之自定義數據集
自定義數據集
在訓練深度學習模型之前,樣本集的制作非常重要。在pytorch中,提供了一些接口和類,方便我們定義自己的數據集合,下面完整的試驗自定義樣本集的整個流程。
開發(fā)環(huán)境
- Ubuntu 18.04
- pytorch 1.0
- pycharm
實驗目的
- 掌握pytorch中數據集相關的API接口和類
- 熟悉數據集制作的整個流程
實驗過程
1.收集圖像樣本
以簡單的貓狗二分類為例,可以在網上下載一些貓狗圖片。創(chuàng)建以下目錄:
- data-------------根目錄
- data/test-------測試集
- data/train------訓練集
- data/val--------驗證集

在test/train/val之下在校分別創(chuàng)建2個文件夾,dog, cat

cat, dog文件夾下分別存放2類圖像:

標簽
| 種類 | 標簽 |
|---|---|
| cat | 0 |
| dog | 1 |
之后寫一個簡單的python腳本,生成txt文件,用于指明每個圖像和標簽的對應關系。
格式: /cat/1.jpg 0 \n dog/1.jpg 1 \n .....
如圖:

至此,樣本集的收集以及簡單歸類完成,下面將開始采用pytorch的數據集相關API和類。
2. 使用pytorch相關類,API對數據集進行封裝
2.1 pytorch中數據集相關的類,接口
pytorch中數據集相關的類位于torch.utils.data package中。
https://pytorch.org/docs/stable/data.html

本次實驗,主要使用以下類:
torch.utils.data.Dataset
torch.utils.data.DataLoader

Dataset類的使用: 所有的類都應該是此類的子類(也就是說應該繼承該類)。 所有的子類都要重寫(override) __len()__, __getitem()__ 這兩個方法。
| 方法 | 作用 |
|---|---|
| __len()__ | 此方法應該提供數據集的大小(容量) |
| __getitem()__ | 此方法應該提供支持下標索方式引訪問數據集 |
這里和Java抽象類很相似,在抽象類abstract class中,一般會定義一些抽象方法abstract method,抽象方法:只有方法名沒有方法的具體實現(xiàn)。如果一個子類繼承于該抽象類,要重寫(overrode)父類的抽象方法。
DataLoader類的使用:

2.2 實現(xiàn)
使用到的python package
| python package | 目的 |
|---|---|
| numpy | 矩陣操作,對圖像進行轉置 |
| skimage | 圖像處理,圖像I/O,圖像變換 |
| matplotlib | 圖像的顯示,可視化 |
| os | 一些文件查找操作 |
| torch | pytorch |
| torvision | pytorch |
源碼
導入python包
import numpy as np from skimage import io from skimage import transform import matplotlib.pyplot as plt import os import torch import torchvision from torch.utils.data import Dataset, DataLoader from torchvision.transforms import transforms from torchvision.utils import make_grid
第一步:
定義一個子類,繼承Dataset類, 重寫 __len()__, __getitem()__ 方法。
細節(jié):
1.數據集中一個一樣的表示:采用字典的形式sample = {'image': image, 'label': label}。
2.圖像的讀?。翰捎胹kimage.io進行讀取,讀取之后的結果為numpy.ndarray形式。
3.圖像變換:transform參數
# step1: 定義MyDataset類, 繼承Dataset, 重寫抽象方法:__len()__, __getitem()__
class MyDataset(Dataset):
def __init__(self, root_dir, names_file, transform=None):
self.root_dir = root_dir
self.names_file = names_file
self.transform = transform
self.size = 0
self.names_list = []
if not os.path.isfile(self.names_file):
print(self.names_file + 'does not exist!')
file = open(self.names_file)
for f in file:
self.names_list.append(f)
self.size += 1
def __len__(self):
return self.size
def __getitem__(self, idx):
image_path = self.root_dir + self.names_list[idx].split(' ')[0]
if not os.path.isfile(image_path):
print(image_path + 'does not exist!')
return None
image = io.imread(image_path) # use skitimage
label = int(self.names_list[idx].split(' ')[1])
sample = {'image': image, 'label': label}
if self.transform:
sample = self.transform(sample)
return sample
第二步
實例化一個對象,并讀取和顯示數據集
train_dataset = MyDataset(root_dir='./data/train',
names_file='./data/train/train.txt',
transform=None)
plt.figure()
for (cnt,i) in enumerate(train_dataset):
image = i['image']
label = i['label']
ax = plt.subplot(4, 4, cnt+1)
ax.axis('off')
ax.imshow(image)
ax.set_title('label {}'.format(label))
plt.pause(0.001)
if cnt == 15:
break
只顯示了部分數據,前部分全是cat

第三步(可選 optional)
對數據集進行變換:一般收集到的圖像大小尺寸,亮度等存在差異,變換的目的就是使得數據歸一化。另一方面,可以通過變換進行數據增加data argument
關于pytorch中的變換transforms,請參考該系列之前的文章
由于數據集中樣本采用字典dicts形式表示。 因此不能直接調用torchvision.transofrms中的方法。
本實驗只進行尺寸歸一化Resize, 數據類型變換ToTensor操作。
Resize
# # 變換Resize
class Resize(object):
def __init__(self, output_size: tuple):
self.output_size = output_size
def __call__(self, sample):
# 圖像
image = sample['image']
# 使用skitimage.transform對圖像進行縮放
image_new = transform.resize(image, self.output_size)
return {'image': image_new, 'label': sample['label']}
ToTensor
# # 變換ToTensor
class ToTensor(object):
def __call__(self, sample):
image = sample['image']
image_new = np.transpose(image, (2, 0, 1))
return {'image': torch.from_numpy(image_new),
'label': sample['label']}
第四步: 對整個數據集應用變換
細節(jié): transformers.Compose() 將不同的幾個組合起來。先進行Resize, 再進行ToTensor
# 對原始的訓練數據集進行變換
transformed_trainset = MyDataset(root_dir='./data/train',
names_file='./data/train/train.txt',
transform=transforms.Compose(
[Resize((224,224)),
ToTensor()]
))
第五步: 使用DataLoader進行包裝
為何要使用DataLoader?
① 深度學習的輸入是mini_batch形式
② 樣本加載時候可能需要隨機打亂順序,shuffle操作
③ 樣本加載需要采用多線程
pytorch提供的DataLoader封裝了上述的功能,這樣使用起來更方便。
# 使用DataLoader可以利用多線程,batch,shuffle等
trainset_dataloader = DataLoader(dataset=transformed_trainset,
batch_size=4,
shuffle=True,
num_workers=4)
可視化:
def show_images_batch(sample_batched):
images_batch, labels_batch = \
sample_batched['image'], sample_batched['label']
grid = make_grid(images_batch)
plt.imshow(grid.numpy().transpose(1, 2, 0))
# sample_batch: Tensor , NxCxHxW
plt.figure()
for i_batch, sample_batch in enumerate(trainset_dataloader):
show_images_batch(sample_batch)
plt.axis('off')
plt.ioff()
plt.show()
plt.show()
通過DataLoader包裝之后,樣本以min_batch形式輸出,而且進行了隨機打亂順序。




至此,自定義數據集的完整流程已實現(xiàn),test, val集只需要改路徑即可。
補充
更簡單的方法
上述繼承Dataset, 重寫 __len()__, __getitem() 是通用的方法,過程相對繁瑣。對于簡單的分類數據集,pytorch中提供了更簡便的方式——ImageFolder。
如果每種類別的樣本放在各自的文件夾中,則可以直接使用ImageFolder。
仍然以cat, dog 二分類數據集為例:
文件結構:



Code
import torch
from torch.utils.data import DataLoader
from torchvision import transforms, datasets
import matplotlib.pyplot as plt
import numpy as np
# https://pytorch.org/tutorials/beginner/data_loading_tutorial.html
# data_transform = transforms.Compose([
# transforms.RandomResizedCrop(224),
# transforms.RandomHorizontalFlip(),
# transforms.ToTensor(),
# transforms.Normalize(mean=[0.485, 0.456, 0.406],
# std=[0.229, 0.224, 0.225])
# ])
data_transform = transforms.Compose([
transforms.Resize((224,224)),
transforms.RandomHorizontalFlip(),
transforms.ToTensor(),
])
train_dataset = datasets.ImageFolder(root='./data/train',transform=data_transform)
train_dataloader = DataLoader(dataset=train_dataset,
batch_size=4,
shuffle=True,
num_workers=4)
def show_batch_images(sample_batch):
labels_batch = sample_batch[1]
images_batch = sample_batch[0]
for i in range(4):
label_ = labels_batch[i].item()
image_ = np.transpose(images_batch[i], (1, 2, 0))
ax = plt.subplot(1, 4, i + 1)
ax.imshow(image_)
ax.set_title(str(label_))
ax.axis('off')
plt.pause(0.01)
plt.figure()
for i_batch, sample_batch in enumerate(train_dataloader):
show_batch_images(sample_batch)
plt.show()
由于 train 目錄下只有2個文件夾,分別為cat, dog, 因此ImageFolder安裝順序對cat使用標簽0, dog使用標簽1。



End
參考:
https://pytorch.org/docs/stable/data.html
https://pytorch.org/tutorials/beginner/data_loading_tutorial.html
到此這篇關于pytorch學習教程之自定義數據集的文章就介紹到這了,更多相關pytorch自定義數據集內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
python實現(xiàn)在遍歷列表時,直接對dict元素增加字段的方法
今天小編就為大家分享一篇python實現(xiàn)在遍歷列表時,直接對dict元素增加字段的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-01-01
Sphinx環(huán)境配置及VScode編寫Rst文檔轉html的步驟
sphinx主要用于編寫 reStructuredText 和 Markdown 格式技術文檔,編寫此類技術文檔時Sphinx工具可將其轉為html、pdf、ePub等格式,這篇文章主要介紹了Sphinx環(huán)境配置及VScode編寫Rst文檔轉html,需要的朋友可以參考下2023-03-03
Pandas過濾dataframe中包含特定字符串的數據方法
今天小編就為大家分享一篇Pandas過濾dataframe中包含特定字符串的數據方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-11-11

