Yolov5訓(xùn)練意外中斷后如何接續(xù)訓(xùn)練詳解
1.配置環(huán)境
操作系統(tǒng):Ubuntu20.04
CUDA版本:11.4
Pytorch版本:1.9.0
TorchVision版本:0.7.0
IDE:PyCharm
硬件:RTX2070S*2

2.問題描述
在訓(xùn)練YOLOv5時(shí)由于數(shù)據(jù)集很大導(dǎo)致訓(xùn)練時(shí)間十分漫長(zhǎng),這期間Python、主機(jī)等可能遇到死機(jī)的情況,如果需要訓(xùn)練300個(gè)epoch但是訓(xùn)練一晚后發(fā)現(xiàn)在200epoch時(shí)停下是十分崩潰了,好在博主摸索到在yolov5中接續(xù)訓(xùn)練的方法了。
3.解決方法
首先直接上方法
3.1設(shè)置需要接續(xù)訓(xùn)練的結(jié)果
如果你想從上一次訓(xùn)練結(jié)果中回復(fù)訓(xùn)練,那么首先保證你的訓(xùn)練結(jié)果(一般都存放在/runs/train目錄下)在保存目錄中代號(hào)為最大的。

如上圖所示,在train文件夾下一共有14個(gè)訓(xùn)練結(jié)果,假設(shè)我的第12次訓(xùn)練中斷了,想接著第12次的結(jié)果繼續(xù)訓(xùn)練,那么只需要將比12更大的:exp13、exp14這兩個(gè)文件夾刪除或者移動(dòng)到其他地方,這樣便設(shè)置好了需要接續(xù)訓(xùn)練的結(jié)果。
3.2設(shè)置訓(xùn)練代碼
代碼見yolov5代碼中的train.py
if __name__ == '__main__':
os.environ["KMP_DUPLICATE_LIB_OK"] = "TRUE"
parser = argparse.ArgumentParser()
parser.add_argument('--weights', type=str, default='../weights/yolov5s.pt', help='initial weights path')
parser.add_argument('--cfg', type=str, default='./models/yolov5s.yaml', help='model.yaml path')
parser.add_argument('--data', type=str, default='data/car.yaml', help='data.yaml path')
parser.add_argument('--hyp', type=str, default='data/hyp.scratch.yaml', help='hyperparameters path')
parser.add_argument('--epochs', type=int, default=300)
parser.add_argument('--batch-size', type=int, default=32, help='total batch size for all GPUs')
parser.add_argument('--img-size', nargs='+', type=int, default=[640, 640], help='[train, test] image sizes')
parser.add_argument('--rect', action='store_true', help='rectangular training')
parser.add_argument('--resume', nargs='?', const=True, default=False, help='resume most recent training')
parser.add_argument('--nosave', action='store_true', help='only save final checkpoint')
parser.add_argument('--notest', action='store_true', help='only test final epoch')
parser.add_argument('--noautoanchor', action='store_true', help='disable autoanchor check')
parser.add_argument('--evolve', action='store_true', help='evolve hyperparameters')
parser.add_argument('--bucket', type=str, default='', help='gsutil bucket')
parser.add_argument('--cache-images', action='store_true', help='cache images for faster training')
parser.add_argument('--image-weights', action='store_true', help='use weighted image selection for training')
parser.add_argument('--device', default='1', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')
parser.add_argument('--multi-scale', action='store_true', help='vary img-size +/- 50%%')
parser.add_argument('--single-cls', action='store_true', help='train multi-class data as single-class')
parser.add_argument('--adam', action='store_true', help='use torch.optim.Adam() optimizer')
parser.add_argument('--sync-bn', action='store_true', help='use SyncBatchNorm, only available in DDP mode')
parser.add_argument('--local_rank', type=int, default=-1, help='DDP parameter, do not modify')
parser.add_argument('--workers', type=int, default=8, help='maximum number of dataloader workers')
parser.add_argument('--project', default='runs/train', help='save to project/name')
parser.add_argument('--entity', default=None, help='W&B entity')
parser.add_argument('--name', default='exp', help='save to project/name')
parser.add_argument('--exist-ok', action='store_true', help='existing project/name ok, do not increment')
parser.add_argument('--quad', action='store_true', help='quad dataloader')
parser.add_argument('--linear-lr', action='store_true', help='linear LR')
parser.add_argument('--label-smoothing', type=float, default=0.0, help='Label smoothing epsilon')
parser.add_argument('--upload_dataset', action='store_true', help='Upload dataset as W&B artifact table')
parser.add_argument('--bbox_interval', type=int, default=-1, help='Set bounding-box image logging interval for W&B')
parser.add_argument('--save_period', type=int, default=-1, help='Log model after every "save_period" epoch')
parser.add_argument('--artifact_alias', type=str, default="latest", help='version of dataset artifact to be used')
opt = parser.parse_args()
注意上面patser中第9個(gè)參數(shù)resume,將其設(shè)置為default=True即可,也就是那一行代碼改變?yōu)?/p>
parser.add_argument('--resume', nargs='?', const=True, default=True, help='resume most recent training')
接下來(lái)運(yùn)行python train.py邊不會(huì)產(chǎn)生新的exp而是在最新的exp上接續(xù)訓(xùn)練
如下圖所示:

博主運(yùn)行完python train.py后便是接著上一次訓(xùn)練完139個(gè)epoch繼續(xù)訓(xùn)練
4.原理
其實(shí)接續(xù)訓(xùn)練不是什么深?yuàn)W內(nèi)容 ,博主在訓(xùn)練自己模型的時(shí)候也早會(huì)使用。
我們?cè)谑褂脃olov5提供的權(quán)重,也就是像yolov5s.pt之類的文件時(shí)就是使用了官方提供的模型接續(xù)訓(xùn)練的。

我們每次訓(xùn)練模型時(shí)都會(huì)生成新的模型結(jié)果,存放在/runs/train/expxxx/weights下,接續(xù)訓(xùn)練就是將上次訓(xùn)練一半得到的結(jié)果拿來(lái)和模型結(jié)合進(jìn)行訓(xùn)練。具體來(lái)說(shuō):如果最終訓(xùn)練目標(biāo)是300個(gè)epoch,上次訓(xùn)練完了139個(gè)epoch,那么就是將第139個(gè)epoch得到的權(quán)重載入到模型中再訓(xùn)練161個(gè)epoch便可等效為訓(xùn)練了300個(gè)epoch
5.結(jié)束語(yǔ)
到此這篇關(guān)于Yolov5訓(xùn)練意外中斷后如何接續(xù)訓(xùn)練的文章就介紹到這了,更多相關(guān)Yolov5訓(xùn)練中斷接續(xù)訓(xùn)練內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
python里對(duì)list中的整數(shù)求平均并排序
本文主要記述了使用Python將list重點(diǎn)整數(shù)求平均值之后在進(jìn)行排列的過程,并把代碼分享給大家,希望大家能給鼓鼓掌~~~2014-09-09
簡(jiǎn)單聊聊PyTorch里面的torch.nn.Parameter()
torch.nn.parameter是一個(gè)被用作神經(jīng)網(wǎng)絡(luò)模塊參數(shù)的tensor,這是一種tensor的子類,下面這篇文章主要給大家介紹了關(guān)于PyTorch里面的torch.nn.Parameter()的相關(guān)資料,需要的朋友可以參考下2022-02-02
Python基于yield遍歷多個(gè)可迭代對(duì)象
這篇文章主要介紹了Python基于yield遍歷多個(gè)可迭代對(duì)象,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2020-03-03
Python爬蟲爬取王者榮耀英雄信息并保存到圖數(shù)據(jù)庫(kù)的操作方法
本文介紹了如何使用Python爬蟲技術(shù)從王者榮耀官方獲取英雄信息,并將數(shù)據(jù)保存到圖數(shù)據(jù)庫(kù)中,文章詳細(xì)說(shuō)明了爬取英雄名稱、類型及皮膚名稱的過程,并展示了創(chuàng)建英雄類型節(jié)點(diǎn)和英雄信息節(jié)點(diǎn)的方法2024-09-09
Pytorch:torch.diag()創(chuàng)建對(duì)角線張量方式
這篇文章主要介紹了Pytorch:torch.diag()創(chuàng)建對(duì)角線張量方式,具有很好的參考價(jià)值,希望對(duì)大家有所幫助,如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2024-06-06
python docx的超鏈接網(wǎng)址和鏈接文本操作
這篇文章主要介紹了python docx的超鏈接網(wǎng)址和鏈接文本操作,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來(lái)看看吧2021-03-03

