Caffe卷積神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)層及參數(shù)
引言
要運行caffe,需要先創(chuàng)建一個模型(model),如比較常用的Lenet,Alex等, 而一個模型由多個屋(layer)構(gòu)成,每一屋又由許多參數(shù)組成。所有的參數(shù)都定義在caffe.proto這個文件中。要熟練使用caffe,最重要的就是學(xué)會配置文件(prototxt)的編寫。
層有很多種類型,比如Data,Convolution,Pooling等,層之間的數(shù)據(jù)流動是以Blobs的方式進(jìn)行。
數(shù)據(jù)層
今天我們就先介紹一下數(shù)據(jù)層.
數(shù)據(jù)層是每個模型的最底層,是模型的入口,不僅提供數(shù)據(jù)的輸入,也提供數(shù)據(jù)從Blobs轉(zhuǎn)換成別的格式進(jìn)行保存輸出。通常數(shù)據(jù)的預(yù)處理(如減去均值, 放大縮小, 裁剪和鏡像等),也在這一層設(shè)置參數(shù)實現(xiàn)。
數(shù)據(jù)來源可以來自高效的數(shù)據(jù)庫(如LevelDB和LMDB),也可以直接來自于內(nèi)存。如果不是很注重效率的話,數(shù)據(jù)也可來自磁盤的hdf5文件和圖片格式文件。
所有的數(shù)據(jù)層的都具有的公用參數(shù):先看示例
layer {
name: "cifar"
type: "Data"
top: "data"
top: "label"
include {
phase: TRAIN
}
transform_param {
mean_file: "examples/cifar10/mean.binaryproto"
}
data_param {
source: "examples/cifar10/cifar10_train_lmdb"
batch_size: 100
backend: LMDB
}
}name: 表示該層的名稱,可隨意取
type: 層類型,如果是Data,表示數(shù)據(jù)來源于LevelDB或LMDB。根據(jù)數(shù)據(jù)的來源不同,數(shù)據(jù)層的類型也不同(后面會詳細(xì)闡述)。一般在練習(xí)的時候,我們都是采 用的LevelDB或LMDB數(shù)據(jù),因此層類型設(shè)置為Data。
top或bottom: 每一層用bottom來輸入數(shù)據(jù),用top來輸出數(shù)據(jù)。如果只有top沒有bottom,則此層只有輸出,沒有輸入。反之亦然。如果有多個 top或多個bottom,表示有多個blobs數(shù)據(jù)的輸入和輸出。
data 與 label: 在數(shù)據(jù)層中,至少有一個命名為data的top。如果有第二個top,一般命名為label。 這種(data,label)配對是分類模型所必需的。
include: 一般訓(xùn)練的時候和測試的時候,模型的層是不一樣的。該層(layer)是屬于訓(xùn)練階段的層,還是屬于測試階段的層,需要用include來指定。如果沒有include參數(shù),則表示該層既在訓(xùn)練模型中,又在測試模型中。
Transformations: 數(shù)據(jù)的預(yù)處理,可以將數(shù)據(jù)變換到定義的范圍內(nèi)。如設(shè)置scale為0.00390625,實際上就是1/255,即將輸入數(shù)據(jù)由0-255歸一化到0-1之間
其它的數(shù)據(jù)預(yù)處理也在這個地方設(shè)置:
transform_param {
scale: 0.00390625
mean_file_size: "examples/cifar10/mean.binaryproto"
# 用一個配置文件來進(jìn)行均值操作
mirror: 1 # 1表示開啟鏡像,0表示關(guān)閉,也可用ture和false來表示
# 剪裁一個 227*227的圖塊,在訓(xùn)練階段隨機(jī)剪裁,在測試階段從中間裁剪
crop_size: 227
}后面的data_param部分,就是根據(jù)數(shù)據(jù)的來源不同,來進(jìn)行不同的設(shè)置。
1、數(shù)據(jù)來自于數(shù)據(jù)庫(如LevelDB和LMDB)
層類型(layer type):Data
必須設(shè)置的參數(shù):
source: 包含數(shù)據(jù)庫的目錄名稱,如examples/mnist/mnist_train_lmdb
batch_size: 每次處理的數(shù)據(jù)個數(shù),如64
可選的參數(shù):
rand_skip: 在開始的時候,路過某個數(shù)據(jù)的輸入。通常對異步的SGD很有用。
backend: 選擇是采用LevelDB還是LMDB, 默認(rèn)是LevelDB.
示例:
layer {
name: "mnist"
type: "Data"
top: "data"
top: "label"
include {
phase: TRAIN
}
transform_param {
scale: 0.00390625
}
data_param {
source: "examples/mnist/mnist_train_lmdb"
batch_size: 64
backend: LMDB
}
}2、數(shù)據(jù)來自于內(nèi)存
層類型:MemoryData
必須設(shè)置的參數(shù):
batch_size:每一次處理的數(shù)據(jù)個數(shù),比如2
channels:通道數(shù)
height:高度
width: 寬度
示例:
layer {
top: "data"
top: "label"
name: "memory_data"
type: "MemoryData"
memory_data_param{
batch_size: 2
height: 100
width: 100
channels: 1
}
transform_param {
scale: 0.0078125
mean_file: "mean.proto"
mirror: false
}
}3、數(shù)據(jù)來自于HDF5
層類型:HDF5Data
必須設(shè)置的參數(shù):
source: 讀取的文件名稱
batch_size: 每一次處理的數(shù)據(jù)個數(shù)
示例:
layer {
name: "data"
type: "HDF5Data"
top: "data"
top: "label"
hdf5_data_param {
source: "examples/hdf5_classification/data/train.txt"
batch_size: 10
}
}4、數(shù)據(jù)來自于圖片
層類型:ImageData
必須設(shè)置的參數(shù):
source: 一個文本文件的名字,每一行給定一個圖片文件的名稱和標(biāo)簽(label)
batch_size: 每一次處理的數(shù)據(jù)個數(shù),即圖片數(shù)
可選參數(shù):
rand_skip:在開始的時候,路過某個數(shù)據(jù)的輸入。通常對異步的SGD很有用。
shuffle: 隨機(jī)打亂順序,默認(rèn)值為false
new_height,new_width: 如果設(shè)置,則將圖片進(jìn)行resize
示例:
layer {
name: "data"
type: "ImageData"
top: "data"
top: "label"
transform_param {
mirror: false
crop_size: 227
mean_file: "data/ilsvrc12/imagenet_mean.binaryproto"
}
image_data_param {
source: "examples/_temp/file_list.txt"
batch_size: 50
new_height: 256
new_width: 256
}
}5、數(shù)據(jù)來源于Windows
層類型:WindowData
必須設(shè)置的參數(shù):
source: 一個文本文件的名字
batch_size: 每一次處理的數(shù)據(jù)個數(shù),即圖片數(shù)
示例:
layer {
name: "data"
type: "WindowData"
top: "data"
top: "label"
include {
phase: TRAIN
}
transform_param {
mirror: true
crop_size: 227
mean_file: "data/ilsvrc12/imagenet_mean.binaryproto"
}
window_data_param {
source: "examples/finetune_pascal_detection/window_file_2007_trainval.txt"
batch_size: 128
fg_threshold: 0.5
bg_threshold: 0.5
fg_fraction: 0.25
context_pad: 16
crop_mode: "warp"
}
}以上就是Caffe卷積神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)層及參數(shù)的詳細(xì)內(nèi)容,更多關(guān)于Caffe數(shù)據(jù)層參數(shù)的資料請關(guān)注腳本之家其它相關(guān)文章!
- Caffe卷積神經(jīng)網(wǎng)絡(luò)solver及其配置詳解
- Caffe卷積神經(jīng)網(wǎng)絡(luò)視覺層Vision?Layers及參數(shù)詳解
- Pytorch卷積神經(jīng)網(wǎng)絡(luò)遷移學(xué)習(xí)的目標(biāo)及好處
- Pytorch深度學(xué)習(xí)經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)resnet模塊訓(xùn)練
- Pytorch卷積神經(jīng)網(wǎng)絡(luò)resent網(wǎng)絡(luò)實踐
- python機(jī)器學(xué)習(xí)GCN圖卷積神經(jīng)網(wǎng)絡(luò)原理解析
- PyTorch實現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)的搭建詳解
- 卷積神經(jīng)網(wǎng)絡(luò)CharCNN實現(xiàn)中文情感分類任務(wù)
相關(guān)文章
Python 玩轉(zhuǎn)圖像格式轉(zhuǎn)換操作
這篇文章主要介紹了Python 玩轉(zhuǎn)圖像格式轉(zhuǎn)換方式,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2021-03-03
使用pytorch提取卷積神經(jīng)網(wǎng)絡(luò)的特征圖可視化
這篇文章主要給大家介紹了關(guān)于使用pytorch提取卷積神經(jīng)網(wǎng)絡(luò)的特征圖可視化的相關(guān)資料,文中給出了詳細(xì)的思路以及示例代碼,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下2022-03-03
python pygame實現(xiàn)滾動橫版射擊游戲城市之戰(zhàn)
這篇文章主要為大家詳細(xì)介紹了python pygame實現(xiàn)滾動橫版射擊游戲城市之戰(zhàn),文中示例代碼介紹的非常詳細(xì),具有一定的參考價值,感興趣的小伙伴們可以參考一下2019-11-11
Python實現(xiàn)批量修改Word文檔中圖片大小并居中對齊
這篇文章主要介紹了如何利用Python實現(xiàn)批量修改Word文檔中圖片大小并居中對齊,文中通過代碼示例給大家講解的非常詳細(xì),對大家的學(xué)習(xí)或工作有一定的幫助,需要的朋友可以參考下2024-08-08
pygame學(xué)習(xí)筆記(1):矩形、圓型畫圖實例
這篇文章主要介紹了pygame學(xué)習(xí)筆記(1):矩形、圓型畫圖實例,本文講解了pygame窗口、窗口退出、pygame中的顏色、圓形、矩形及一個完整實例,需要的朋友可以參考下2015-04-04

