Win10系統(tǒng)下安裝labelme及json文件批量轉化方法
一、安裝環(huán)境:windows10,anaconda3,python3.6
由于框架maskrcnn需要json數(shù)據(jù)集,在沒安裝labelme環(huán)境和跑深度學習之前,我安裝的是anaconda3,其中pyhton是3.7版本的,經(jīng)網(wǎng)上查閱資料,經(jīng)過一番查找資料,發(fā)現(xiàn),原來在2019年,TensorFlow還不支持python3.7,所以,迫于無奈,我只能乖乖把python的版本退回到3.6版本,具體步驟也很簡單。就是打開anaconda prompt ,然后輸入conda install python=3.6,然后等待提示(y/n),輸入y,等待十幾分鐘,就會提示done,這樣的話,就表示python3.7已經(jīng)退回到python3.6了。(經(jīng)過嘗試這種方法在我這里沒有行得通,可能跟網(wǎng)速有關,又嘗試了另一種方法,有興趣的可以嘗試一下。)索性就把labelme安裝到3.6中了。
二、安裝過程:
1、管理員身份打開 anaconda prompt
2、輸入命令:conda create --name=labelme python=3.6
3、輸入命令:activate labelme
4、輸入命令:pip install pyqt5,pip install pyside2(自己剛開始沒有安裝pyside2,運行 \anaconda安裝目錄\envs\labelme\Scripts\label_json_to_dataset.exe 會出現(xiàn)module "pyside"缺失錯誤)
5、輸入命令:pip install labelme(由于網(wǎng)絡原因或者庫的地址,經(jīng)常運行一半出現(xiàn)錯誤,不要氣餒,多執(zhí)行幾次)
6、輸入命令:labelme 即可打開labelme。如下:

安裝完成后,需要使用再次啟動labelme。則需要重新打開anaconda prompt,輸入activate labelme,進入labelme環(huán)境。再輸入命令: labelme 即可
三、用labelme標注完圖片后,會生成json文件
以小貓為例:點擊保存會在自己的圖片目錄下生成json文件

點點
生成的json文件并不能直接用,我們需要對他進行批處理才能成為maskrcnn需要的數(shù)據(jù)集,批量轉化如下:
abelme標注工具再轉化.json文件有一個缺陷,一次只能轉換一個.json文件,然而深度學習的項目通常需要大量的數(shù)據(jù),那么轉換.json文件就是一個比較耗時的工作;因此,對labelme做出了改進,可以實現(xiàn)批量轉換.json文件。
在安裝Anaconda中找到json_to_dataset.py文件如果未找到可以在計算機中搜索,將該文件代碼修改為以下代碼:
import argparse
import base64
import json
import os
import os.path as osp
import warnings
import PIL.Image
import yaml
from labelme import utils
def main():
warnings.warn("This script is aimed to demonstrate how to convert the\n"
"JSON file to a single image dataset, and not to handle\n"
"multiple JSON files to generate a real-use dataset.")
parser = argparse.ArgumentParser()
parser.add_argument('json_file')
parser.add_argument('-o', '--out', default=None)
args = parser.parse_args()
json_file = args.json_file
alist = os.listdir(json_file)
for i in range(0,len(alist)):
path = os.path.join(json_file,alist[i])
data = json.load(open(path))
out_dir = osp.basename(path).replace('.', '_')
out_dir = osp.join(osp.dirname(path), out_dir)
if not osp.exists(out_dir):
os.mkdir(out_dir)
if data['imageData']:
imageData = data['imageData']
else:
imagePath = os.path.join(os.path.dirname(path), data['imagePath'])
with open(imagePath, 'rb') as f:
imageData = f.read()
imageData = base64.b64encode(imageData).decode('utf-8')
img = utils.img_b64_to_arr(imageData)
label_name_to_value = {'_background_': 0}
for shape in data['shapes']:
label_name = shape['label']
if label_name in label_name_to_value:
label_value = label_name_to_value[label_name]
else:
label_value = len(label_name_to_value)
label_name_to_value[label_name] = label_value
# label_values must be dense
label_values, label_names = [], []
for ln, lv in sorted(label_name_to_value.items(), key=lambda x: x[1]):
label_values.append(lv)
label_names.append(ln)
assert label_values == list(range(len(label_values)))
lbl = utils.shapes_to_label(img.shape, data['shapes'], label_name_to_value)
captions = ['{}: {}'.format(lv, ln)
for ln, lv in label_name_to_value.items()]
lbl_viz = utils.draw_label(lbl, img, captions)
PIL.Image.fromarray(img).save(osp.join(out_dir, 'img.png'))
utils.lblsave(osp.join(out_dir, 'label.png'), lbl)
PIL.Image.fromarray(lbl_viz).save(osp.join(out_dir, 'label_viz.png'))
with open(osp.join(out_dir, 'label_names.txt'), 'w') as f:
for lbl_name in label_names:
f.write(lbl_name + '\n')
warnings.warn('info.yaml is being replaced by label_names.txt')
info = dict(label_names=label_names)
with open(osp.join(out_dir, 'info.yaml'), 'w') as f:
yaml.safe_dump(info, f, default_flow_style=False)
print('Saved to: %s' % out_dir)
if __name__ == '__main__':
main()
操作命令如下圖:

生成效果如下:每張圖片生成五個文件 ,這就是我們所需要的

總結
以上所述是小編給大家介紹的Win10系統(tǒng)下安裝labelme json文件批量轉化方法,希望對大家有所幫助,如果大家有任何疑問請給我留言,小編會及時回復大家的。在此也非常感謝大家對腳本之家網(wǎng)站的支持!
如果你覺得本文對你有幫助,歡迎轉載,煩請注明出處,謝謝!
相關文章
Python自動化運維中服務器性能監(jiān)控與告警詳解
這篇文章主要為大家詳細介紹了Python自動化運維中服務器性能監(jiān)控與告警的相關知識,文中的示例代碼講解詳細,感興趣的小伙伴可以了解下2025-04-04
tensorflow使用tf.data.Dataset 處理大型數(shù)據(jù)集問題
這篇文章主要介紹了tensorflow使用tf.data.Dataset 處理大型數(shù)據(jù)集問題,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教2022-12-12
pytorch中的torch.nn.Conv2d()函數(shù)圖文詳解
這篇文章主要給大家介紹了關于pytorch中torch.nn.Conv2d()函數(shù)的相關資料,文中通過實例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下2022-02-02

