基于OpenCV的路面質(zhì)量檢測(cè)的實(shí)現(xiàn)
本期我們將展示一種對(duì)路面類型和質(zhì)量進(jìn)行分類的方法及其步驟。為了測(cè)試這種方法,我們使用了我們制作的RTK數(shù)據(jù)集。

路面分類
該數(shù)據(jù)集[1]包含用低成本相機(jī)拍攝的圖像,以及新興國(guó)家常見的場(chǎng)景,其中包含未鋪砌的道路和坑洼。路面類型是有關(guān)人或自動(dòng)駕駛車輛應(yīng)如何駕駛的重要信息。除了乘客舒適度和車輛維護(hù)以外,它還涉及每個(gè)人的安全。我們可以通過[2]中的簡(jiǎn)單卷積神經(jīng)網(wǎng)絡(luò)(CNN)結(jié)構(gòu)來實(shí)現(xiàn)。

在這種方法中,我們對(duì)表面類型分類任務(wù)使用特定的模型,我們將其定義為以下類別:瀝青,已鋪設(shè)(用于所有其他類型的路面)和未鋪設(shè)。對(duì)于表面質(zhì)量,我們使用其他三種不同的模型,每種類型的表面都使用一種。這四個(gè)模型都具有相同的結(jié)構(gòu)。我們從第一個(gè)模型中得出結(jié)果,并稱為特定質(zhì)量模型。
在CNN結(jié)構(gòu)之前,將感興趣區(qū)域(ROI)定義為每個(gè)輸入幀的預(yù)處理步驟。畢竟,我們不需要整個(gè)圖像來對(duì)道路進(jìn)行分類。ROI旨在僅保留圖像中實(shí)際包含道路像素的部分。圖像的上半部分以及圖像底部的一小部分都將被丟棄,因?yàn)樵谀承?,它可能包含?fù)責(zé)捕獲圖像的部分車輛。ROI采用硬編碼,因?yàn)槿绻覀兪褂米赃m應(yīng)ROI,它可能會(huì)導(dǎo)致失敗并損害模型訓(xùn)練。

在此預(yù)處理之后執(zhí)行數(shù)據(jù)擴(kuò)充步驟。數(shù)據(jù)增強(qiáng)包括增加和減少每幀的亮度。這樣,我們可以改進(jìn)訓(xùn)練輸入集,并幫助我們的系統(tǒng)學(xué)習(xí)識(shí)別具有不同照明條件的相同類型和質(zhì)量的道路。
最后,將輸入圖像傳遞到包含三個(gè)卷積層和兩個(gè)完全連接層的CNN結(jié)構(gòu)。

01.RTK數(shù)據(jù)集
數(shù)據(jù)集包含具有不同類型的表面和質(zhì)量的圖像。

可從以下位置下載RTK數(shù)據(jù)集:
http://www.lapix.ufsc.br/pesquisas/projeto-veiculo-autonomo/datasets/?lang=zh-CN
02.路面類型分類
我們使用了Python,TensorFlow和OpenCV。
讓我們逐步分析一下…
首先,我們需要建立表面類型分類模型。為此,您將需要準(zhǔn)備數(shù)據(jù)以訓(xùn)練模型。您可以使用RTK數(shù)據(jù)集中的圖像或制作自己的圖像。圖像需要按地面道路類型進(jìn)行組織。

訓(xùn)練數(shù)據(jù)文件夾結(jié)構(gòu)
在我們的實(shí)驗(yàn)中,我們使用了6264幀:
l鋪砌(瀝青):4344,用于柏油馬路。
l鋪砌的(混凝土的):1337用于不同的人行道,例如鵝卵石。
l未鋪砌:585用于未鋪砌,土路,越野。
接下來,在train.py中,定義從何處收集訓(xùn)練數(shù)據(jù)。我們應(yīng)該將20%的數(shù)據(jù)分開以自動(dòng)用于驗(yàn)證。我們還定義了batch_size為32。
classes = os.listdir('training_data')
num_classes = len(classes)
batch_size = 32
validation_size = 0.2
img_size = 128
num_channels = 3
train_path='training_data'
在train.py上設(shè)置的參數(shù)將在dataset.py類上讀取。
data = dataset.read_train_sets(train_path, img_size, classes, validation_size=validation_size)
在dataset.py類中,我們定義了ROI和數(shù)據(jù)擴(kuò)充。帶有數(shù)據(jù)解釋功能的兩個(gè)函數(shù),Adjust_gamma可以降低亮度,而Adjust_gammaness可以提高亮度。
def adjust_gamma(image):
gamma = 0.5
invGamma = 1.0 / gamma
table = np.array([((i / 255.0) ** invGamma) * 255
for i in np.arange(0, 256)]).astype("uint8")
return cv2.LUT(image, table)
def increase_brightness(img, value):
hsv = cv2.cvtColor(img, cv2.COLOR_BGR2HSV)
h, s, v = cv2.split(hsv)
lim = 255 - value
v[v > lim] = 255
v[v <= lim] += value
final_hsv = cv2.merge((h, s, v))
img = cv2.cvtColor(final_hsv, cv2.COLOR_HSV2BGR)
return img
加載輸入數(shù)據(jù)時(shí),將為每個(gè)圖像定義ROI。
for fields in classes:
index = classes.index(fields)
print('Now going to read {} files (Index: {})'.format(fields, index))
path = os.path.join(train_path, fields, '*g')
files = glob.glob(path)
for fl in files:
image = cv2.imread(fl)
# Region Of Interest (ROI)
height, width = image.shape[:2]
newHeight = int(round(height/2))
image = image[newHeight-5:height-50, 0:width]
brght_img = increase_brightness(image, value=150)
shaded_img = adjust_gamma(image)
image = cv2.resize(image, (image_size, image_size),0,0, cv2.INTER_LINEAR)
image = image.astype(np.float32)
image = np.multiply(image, 1.0 / 255.0)
brght_img = cv2.resize(brght_img, (image_size, image_size),0,0, cv2.INTER_LINEAR)
brght_img = brght_img.astype(np.float32)
brght_img = np.multiply(brght_img, 1.0 / 255.0)
shaded_img = cv2.resize(shaded_img, (image_size, image_size),0,0, cv2.INTER_LINEAR)
shaded_img = shaded_img.astype(np.float32)
shaded_img = np.multiply(brght_img, 1.0 / 255.0)
我們還會(huì)平衡輸入圖像,因?yàn)闉r青的圖像更多,而未鋪砌和未鋪砌的道路更少。
if index == 0: #asphalt images.append(image) images.append(brght_img) images.append(shaded_img) elif index == 1: #paved for i in range(3): images.append(image) images.append(brght_img) images.append(shaded_img) elif index == 2: #unpaved for i in range(6): images.append(image) images.append(brght_img) images.append(shaded_img)
回到train.py,讓我們定義TensorFlow教程[2]中所示的CNN層。所有選擇到訓(xùn)練步驟的圖像都將傳遞到第一卷積層,其中包含有關(guān)通道的寬度,高度和數(shù)量的信息。前兩層包含32個(gè)大小為3x3的濾鏡。緊接著是一個(gè)具有3x3大小的64個(gè)濾鏡的圖層。所有的步幅都定義為1,填充的定義為0。正態(tài)分布用于權(quán)重初始化。為了在尺寸上減少輸入,這有助于分析輸入子區(qū)域中的特征信息,在所有卷積層中應(yīng)用了最大池。在每個(gè)卷積層的末尾,在最大合并功能之后,將ReLU用作激活功能。
def create_convolutional_layer(input,
num_input_channels,
conv_filter_size,
num_filters):
weights = create_weights(shape=[conv_filter_size, conv_filter_size, num_input_channels, num_filters])
biases = create_biases(num_filters)
layer = tf.nn.conv2d(input=input,
filter=weights,
strides=[1, 1, 1, 1],
padding='SAME')
layer += biases
layer = tf.nn.max_pool(value=layer,
ksize=[1, 2, 2, 1],
strides=[1, 2, 2, 1],
padding='SAME')
layer = tf.nn.relu(layer)
在卷積層之后,平坦層用于將卷積多維張量轉(zhuǎn)換為一維張量。
def create_flatten_layer(layer): layer_shape = layer.get_shape() num_features = layer_shape[1:4].num_elements() layer = tf.reshape(layer, [-1, num_features]) return layer
最后添加兩個(gè)完全連接的層。在第一個(gè)完全連接的層中,應(yīng)用了ReLU激活功能。第二個(gè)完全連接的層具有可能的輸出,所需的類別。
def create_fc_layer(input,
num_inputs,
num_outputs,
use_relu=True):
weights = create_weights(shape=[num_inputs, num_outputs])
biases = create_biases(num_outputs)
layer = tf.matmul(input, weights) + biases
if use_relu:
layer = tf.nn.relu(layer)
return layer
我們使用softmax函數(shù)來實(shí)現(xiàn)每個(gè)類的概率。最后,我們還使用Adam優(yōu)化器,該優(yōu)化器根據(jù)訓(xùn)練中使用的輸入數(shù)據(jù)更新網(wǎng)絡(luò)權(quán)重。
layer_conv1 = create_convolutional_layer(input=x,
num_input_channels=num_channels,
conv_filter_size=filter_size_conv1,
num_filters=num_filters_conv1)
layer_conv2 = create_convolutional_layer(input=layer_conv1,
num_input_channels=num_filters_conv1,
conv_filter_size=filter_size_conv2,
num_filters=num_filters_conv2)
layer_conv3= create_convolutional_layer(input=layer_conv2,
num_input_channels=num_filters_conv2,
conv_filter_size=filter_size_conv3,
num_filters=num_filters_conv3)
layer_flat = create_flatten_layer(layer_conv3)
layer_fc1 = create_fc_layer(input=layer_flat,
num_inputs=layer_flat.get_shape()[1:4].num_elements(),
num_outputs=fc_layer_size,
use_relu=True)
layer_fc2 = create_fc_layer(input=layer_fc1,
num_inputs=fc_layer_size,
num_outputs=num_classes,
use_relu=False)
y_pred = tf.nn.softmax(layer_fc2,name='y_pred')
y_pred_cls = tf.argmax(y_pred, dimension=1)
session.run(tf.global_variables_initializer())
cross_entropy = tf.nn.softmax_cross_entropy_with_logits(logits=layer_fc2,
labels=y_true)
cost = tf.reduce_mean(cross_entropy)
optimizer = tf.train.AdamOptimizer(learning_rate=1e-4).minimize(cost)
correct_prediction = tf.equal(y_pred_cls, y_true_cls)
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
可以python train.py 在終端中訓(xùn)練模型的運(yùn)行:
現(xiàn)在,有了經(jīng)過訓(xùn)練的模型,我們就可以測(cè)試。首先,讓我們準(zhǔn)備好接收輸入測(cè)試幀和輸出文件名。
outputFile = sys.argv[2]
# Opening frames
cap = cv.VideoCapture(sys.argv[1])
vid_writer = cv.VideoWriter(outputFile, cv.VideoWriter_fourcc('M','J','P','G'), 15, (round(cap.get(cv.CAP_PROP_FRAME_WIDTH)),round(cap.get(cv.CAP_PROP_FRAME_HEIGHT))))
檢索訓(xùn)練好的模型并訪問圖形。
sess = tf.Session()
saver = tf.train.import_meta_graph('roadsurface-model.meta')
saver.restore(sess, tf.train.latest_checkpoint('./'))
graph = tf.get_default_graph()
y_pred = graph.get_tensor_by_name("y_pred:0")
x = graph.get_tensor_by_name("x:0")
y_true = graph.get_tensor_by_name("y_true:0")
y_test_images = np.zeros((1, len(os.listdir('training_data'))))
請(qǐng)記住,我們不需要整個(gè)圖像,我們的培訓(xùn)著重于使用ROI,在這里我們也使用它。
width = int(round(cap.get(cv.CAP_PROP_FRAME_WIDTH)))
height = int(round(cap.get(cv.CAP_PROP_FRAME_HEIGHT)))
newHeight = int(round(height/2))
while cv.waitKey(1) < 0:
hasFrame, images = cap.read()
finalimg = images
images = images[newHeight-5:height-50, 0:width]
images = cv.resize(images, (image_size, image_size), 0, 0, cv.INTER_LINEAR)
images = np.array(images, dtype=np.uint8)
images = images.astype('float32')
images = np.multiply(images, 1.0/255.0)
最后,基于輸出預(yù)測(cè),我們可以在每幀中打印分類的表面類型。
x_batch = images.reshape(1, image_size, image_size, num_channels)
feed_dict_testing = {x: x_batch, y_true: y_test_images}
result = sess.run(y_pred, feed_dict=feed_dict_testing)
outputs = [result[0,0], result[0,1], result[0,2]]
value = max(outputs)
index = np.argmax(outputs)
if index == 0:
label = 'Asphalt'
prob = str("{0:.2f}".format(value))
color = (0, 0, 0)
elif index == 1:
label = 'Paved'
prob = str("{0:.2f}".format(value))
color = (153, 102, 102)
elif index == 2:
label = 'Unpaved'
prob = str("{0:.2f}".format(value))
color = (0, 153, 255)
cv.rectangle(finalimg, (0, 0), (145, 40), (255, 255, 255), cv.FILLED)
cv.putText(finalimg, 'Class: ', (5,15), cv.FONT_HERSHEY_SIMPLEX, 0.5, (0,0,0), 1)
cv.putText(finalimg, label, (70,15), cv.FONT_HERSHEY_SIMPLEX, 0.5, color, 1)
cv.putText(finalimg, prob, (5,35), cv.FONT_HERSHEY_SIMPLEX, 0.5, (0,0,0), 1)
vid_writer.write(finalimg.astype(np.uint8))
可以測(cè)試在終端中運(yùn)行的模型:python test.py PATH_TO_YOUR_FRAMES_SEQUENCE NAME_YOUR_VIDEO_FILE.avi。
03.路面質(zhì)量分類
現(xiàn)在讓我們包括質(zhì)量分類。我們僅使用用于訓(xùn)練表面類型分類模型的相同CNN架構(gòu),并分別在每個(gè)表面類別上應(yīng)用每個(gè)質(zhì)量類別。因此,除了現(xiàn)有模型外,我們還培訓(xùn)了3種新模型。為此,大家將需要準(zhǔn)備用于訓(xùn)練每個(gè)表面類別的模型的數(shù)據(jù)。在RTK數(shù)據(jù)集頁(yè)面中,我們已經(jīng)給出了按班級(jí)組織的框架。

用于質(zhì)量課程的培訓(xùn)數(shù)據(jù)文件夾結(jié)構(gòu)
要訓(xùn)練每種模型,小伙伴們可以在終端中運(yùn)行:
python trainAsphaltQuality.py python trainPavedQuality.py python trainUnpavedQuality.py
現(xiàn)在,預(yù)測(cè)部分發(fā)生了什么變化。我們使用四個(gè)不同的圖,每個(gè)訓(xùn)練模型一個(gè)。
graph = tf.Graph() graphAQ = tf.Graph() graphPQ = tf.Graph() graphUQ = tf.Graph()
04.模型恢復(fù)
恢復(fù)類型模型
with graph.as_default():
saver = tf.train.import_meta_graph('roadsurfaceType-model.meta')
y_pred = graph.get_tensor_by_name("y_pred:0")
x = graph.get_tensor_by_name("x:0")
y_true = graph.get_tensor_by_name("y_true:0")
y_test_images = np.zeros((1, len(os.listdir('training_data_type'))))
sess = tf.Session(graph = graph)
saver.restore(sess, tf.train.latest_checkpoint('typeCheckpoint/'))
恢復(fù)瀝青質(zhì)量模型
with graphAQ.as_default():
saverAQ = tf.train.import_meta_graph('roadsurfaceAsphaltQuality-model.meta')
y_predAQ = graphAQ.get_tensor_by_name("y_pred:0")
xAQ = graphAQ.get_tensor_by_name("x:0")
y_trueAQ = graphAQ.get_tensor_by_name("y_true:0")
y_test_imagesAQ = np.zeros((1, len(os.listdir('training_data_asphalt_quality'))))
sessAQ = tf.Session(graph = graphAQ)
saverAQ.restore(sessAQ, tf.train.latest_checkpoint('asphaltCheckpoint/'))
恢復(fù)鋪砌的質(zhì)量模型
with graphPQ.as_default():
saverPQ = tf.train.import_meta_graph('roadsurfacePavedQuality-model.meta')
y_predPQ = graphPQ.get_tensor_by_name("y_pred:0")
xPQ = graphPQ.get_tensor_by_name("x:0")
y_truePQ = graphPQ.get_tensor_by_name("y_true:0")
y_test_imagesPQ = np.zeros((1, len(os.listdir('training_data_paved_quality'))))
sessPQ = tf.Session(graph = graphPQ)
saverPQ.restore(sessPQ, tf.train.latest_checkpoint('pavedCheckpoint/'))
恢復(fù)未鋪砌的質(zhì)量模型
with graphUQ.as_default():
saverUQ = tf.train.import_meta_graph('roadsurfaceUnpavedQuality-model.meta')
y_predUQ = graphUQ.get_tensor_by_name("y_pred:0")
xUQ = graphUQ.get_tensor_by_name("x:0")
y_trueUQ = graphUQ.get_tensor_by_name("y_true:0")
y_test_imagesUQ = np.zeros((1, len(os.listdir('training_data_unpaved_quality'))))
sessUQ = tf.Session(graph = graphUQ)
saverUQ.restore(sessUQ, tf.train.latest_checkpoint('unpavedCheckpoint/'))
此時(shí),輸出預(yù)測(cè)也要考慮質(zhì)量模型,我們可以在每個(gè)幀中打印分類的表面類型以及該表面的質(zhì)量。
if index == 0: #Asphalt
label = 'Asphalt'
prob = str("{0:.2f}".format(value))
color = (0, 0, 0)
x_batchAQ = images.reshape(1, image_size, image_size, num_channels)
feed_dict_testingAQ = {xAQ: x_batchAQ, y_trueAQ: y_test_imagesAQ}
resultAQ = sessAQ.run(y_predAQ, feed_dict=feed_dict_testingAQ)
outputsQ = [resultAQ[0,0], resultAQ[0,1], resultAQ[0,2]]
valueQ = max(outputsQ)
indexQ = np.argmax(outputsQ)
if indexQ == 0: #Asphalt - Good
quality = 'Good'
colorQ = (0, 255, 0)
probQ = str("{0:.2f}".format(valueQ))
elif indexQ == 1: #Asphalt - Regular
quality = 'Regular'
colorQ = (0, 204, 255)
probQ = str("{0:.2f}".format(valueQ))
elif indexQ == 2: #Asphalt - Bad
quality = 'Bad'
colorQ = (0, 0, 255)
probQ = str("{0:.2f}".format(valueQ))
elif index == 1: #Paved
label = 'Paved'
prob = str("{0:.2f}".format(value))
color = (153, 102, 102)
x_batchPQ = images.reshape(1, image_size, image_size, num_channels)
feed_dict_testingPQ = {xPQ: x_batchPQ, y_truePQ: y_test_imagesPQ}
resultPQ = sessPQ.run(y_predPQ, feed_dict=feed_dict_testingPQ)
outputsQ = [resultPQ[0,0], resultPQ[0,1], resultPQ[0,2]]
valueQ = max(outputsQ)
indexQ = np.argmax(outputsQ)
if indexQ == 0: #Paved - Good
quality = 'Good'
colorQ = (0, 255, 0)
probQ = str("{0:.2f}".format(valueQ))
elif indexQ == 1: #Paved - Regular
quality = 'Regular'
colorQ = (0, 204, 255)
probQ = str("{0:.2f}".format(valueQ))
elif indexQ == 2: #Paved - Bad
quality = 'Bad'
colorQ = (0, 0, 255)
probQ = str("{0:.2f}".format(valueQ))
elif index == 2: #Unpaved
label = 'Unpaved'
prob = str("{0:.2f}".format(value))
color = (0, 153, 255)
x_batchUQ = images.reshape(1, image_size, image_size, num_channels)
feed_dict_testingUQ = {xUQ: x_batchUQ, y_trueUQ: y_test_imagesUQ}
resultUQ = sessUQ.run(y_predUQ, feed_dict=feed_dict_testingUQ)
outputsQ = [resultUQ[0,0], resultUQ[0,1]]
valueQ = max(outputsQ)
indexQ = np.argmax(outputsQ)
if indexQ == 0: #Unpaved - Regular
quality = 'Regular'
colorQ = (0, 204, 255)
probQ = str("{0:.2f}".format(valueQ))
elif indexQ == 1: #Unpaved - Bad
quality = 'Bad'
colorQ = (0, 0, 255)
probQ = str("{0:.2f}".format(valueQ))
打印結(jié)果
cv.rectangle(finalimg, (0, 0), (145, 80), (255, 255, 255), cv.FILLED)
cv.putText(finalimg, 'Class: ', (5,15), cv.FONT_HERSHEY_DUPLEX, 0.5, (0,0,0))
cv.putText(finalimg, label, (70,15), cv.FONT_HERSHEY_DUPLEX, 0.5, color)
cv.putText(finalimg, prob, (5,35), cv.FONT_HERSHEY_DUPLEX, 0.5, (0,0,0))
cv.putText(finalimg, 'Quality: ', (5,55), cv.FONT_HERSHEY_DUPLEX, 0.5, (0,0,0))
cv.putText(finalimg, quality, (70,55), cv.FONT_HERSHEY_DUPLEX, 0.5, colorQ)
cv.putText(finalimg, probQ, (5,75), cv.FONT_HERSHEY_DUPLEX, 0.5, (0,0,0))
大家可以在終端中測(cè)試運(yùn)行情況:python testRTK.py PATH_TO_YOUR_FRAMES_SEQUENCE NAME_YOUR_VIDEO_FILE.avi。
一些結(jié)果樣本:

致謝
lThiago Rateke << span="">rateke.thiago@gmail.com>
lKarla Aparecida Justen << span="">justen.karla@gmail.com>
lAldo von Wangenheim << span="">aldo.vw@ufsc.br>
參考文獻(xiàn)
[1] T. Rateke, K. A. Justen and A. von Wangenheim, Road Surface Classification with Images Captured From Low-cost Cameras — Road Traversing Knowledge (RTK) Dataset, (2019), Revista de Informática Teórica e Aplicada (RITA)
[2] A. Sachan, Tensorflow Tutorial 2: image classifier using convolutional neural network, (2017), CV-Tricks.com
到此這篇關(guān)于基于OpenCV的路面質(zhì)量檢測(cè)的文章就介紹到這了,更多相關(guān)基于OpenCV的路面質(zhì)量檢測(cè)內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
- Python使用Opencv實(shí)現(xiàn)圖像特征檢測(cè)與匹配的方法
- python opencv檢測(cè)目標(biāo)顏色的實(shí)例講解
- 10個(gè)步驟Opencv輕松檢測(cè)出圖片中條形碼
- Python 使用Opencv實(shí)現(xiàn)目標(biāo)檢測(cè)與識(shí)別的示例代碼
- Python Opencv實(shí)現(xiàn)單目標(biāo)檢測(cè)的示例代碼
- Opencv Hough算法實(shí)現(xiàn)圖片中直線檢測(cè)
- 使用OpenCV檢測(cè)圖像中的矩形
- OpenCV實(shí)現(xiàn)圖像角點(diǎn)檢測(cè)
- opencv?canny邊緣檢測(cè)算法詳解
- opencv實(shí)現(xiàn)礦石圖片檢測(cè)礦石數(shù)量
相關(guān)文章
Python創(chuàng)建一個(gè)自定義視頻播放器的實(shí)現(xiàn)
本文主要介紹了Python創(chuàng)建一個(gè)自定義視頻播放器的實(shí)現(xiàn),文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2023-02-02
python中elasticsearch_dsl模塊的使用方法
這篇文章主要介紹了python中elasticsearch_dsl模塊的使用方法,elasticsearch-dsl是基于elasticsearch-py封裝實(shí)現(xiàn)的,提供了更簡(jiǎn)便的操作elasticsearch的方法2022-09-09
python中的插值 scipy-interp的實(shí)現(xiàn)代碼
這篇文章主要介紹了python中的插值 scipy-interp的實(shí)現(xiàn)代碼,需要的朋友可以參考下2018-07-07
Anaconda+spyder+pycharm的pytorch配置詳解(GPU)
這篇文章主要介紹了Anaconda+spyder+pycharm的pytorch配置,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-10-10
查看已經(jīng)安裝的python版本和相關(guān)路徑信息的三種方法
Python是一門計(jì)算機(jī)程序編程語(yǔ)言,更是一種面向?qū)ο蟮膭?dòng)態(tài)類型語(yǔ)言,隨著版本的不斷更新和語(yǔ)言新功能的添加,越來越多被用于獨(dú)立的、大型項(xiàng)目的開發(fā),那么如何查看已安裝Python版本和路徑呢?我們通過這篇文章來了解一下2025-03-03
Python實(shí)現(xiàn)圖片分割的多種方法總結(jié)
圖片分割是圖像處理中的一個(gè)重要任務(wù),它的目標(biāo)是將圖像劃分為多個(gè)區(qū)域或者對(duì)象,本文為大家整理了一些常用的分割方法,大家可以根據(jù)需求自行選擇2025-04-04
python tkinter圖形界面代碼統(tǒng)計(jì)工具
這篇文章主要為大家詳細(xì)介紹了python tkinter圖形界面代碼統(tǒng)計(jì)工具,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2019-09-09

