python利用多線程+隊(duì)列技術(shù)爬取中介網(wǎng)互聯(lián)網(wǎng)網(wǎng)站排行榜
目標(biāo)站點(diǎn)分析
本次要抓取的目標(biāo)站點(diǎn)為:中介網(wǎng),這個網(wǎng)站提供了網(wǎng)站排行榜、互聯(lián)網(wǎng)網(wǎng)站排行榜、中文網(wǎng)站排行榜等數(shù)據(jù)。
網(wǎng)站展示的樣本數(shù)據(jù)量是 :58341。
采集頁面地址為 https://www.zhongjie.com/top/rank_all_1.html,
UI如下所示:

由于頁面存在一個【尾頁】超鏈接,所以直接通過該超鏈接獲取累計頁面即可。
其余頁面遵循簡單分頁規(guī)則:
https://www.zhongjie.com/top/rank_all_1.html https://www.zhongjie.com/top/rank_all_2.html
基于此,本次Python爬蟲的解決方案如下,頁面請求使用 requests 庫,頁面解析使用 lxml,多線程使用 threading 模塊,隊(duì)列依舊采用 queue 模塊。
編碼時間
在正式編碼前,先通過一張圖將邏輯進(jìn)行梳理。
本爬蟲編寫步驟文字描述如下:
- 預(yù)先請求第一頁,解析出總頁碼;
- 通過生產(chǎn)者不斷獲取域名詳情頁地址,添加到隊(duì)列中;
- 消費(fèi)者函數(shù)從隊(duì)列獲取詳情頁地址,解析目標(biāo)數(shù)據(jù)。

總頁碼的生成代碼非常簡單
def get_total_page():
# get_headers() 函數(shù),可參考開源代碼分享數(shù)據(jù)
res = requests.get(
'https://www.zhongjie.com/top/rank_all_1.html', headers=get_headers(), timeout=5)
element = etree.HTML(res.text)
last_page = element.xpath("http://a[@class='weiye']/@href")[0]
pattern = re.compile('(\d+)')
page = pattern.search(last_page)
return int(page.group(1))總頁碼生成完畢,就可以進(jìn)行多線程相關(guān)編碼,本案例未編寫存儲部分代碼,留給你自行完成啦,
完整代碼如下所示:
from queue import Queue
import time
import threading
import requests
from lxml import etree
import random
import re
def get_headers():
uas = [
"Mozilla/5.0 (compatible; Baiduspider/2.0; +http://www.baidu.com/search/spider.html)",
"Mozilla/5.0 (compatible; Baiduspider-render/2.0; +http://www.baidu.com/search/spider.html)"
]
ua = random.choice(uas)
headers = {
"user-agent": ua
}
return headers
def get_total_page():
res = requests.get(
'https://www.zhongjie.com/top/rank_all_1.html', headers=get_headers(), timeout=5)
element = etree.HTML(res.text)
last_page = element.xpath("http://a[@class='weiye']/@href")[0]
pattern = re.compile('(\d+)')
page = pattern.search(last_page)
return int(page.group(1))
# 生產(chǎn)者
def producer():
while True:
# 取一個分類ID
url = urls.get()
urls.task_done()
if url is None:
break
res = requests.get(url=url, headers=get_headers(), timeout=5)
text = res.text
element = etree.HTML(text)
links = element.xpath('//a[@class="copyright_title"]/@href')
for i in links:
wait_list_urls.put("https://www.zhongjie.com" + i)
# 消費(fèi)者
def consumer():
while True:
url = wait_list_urls.get()
wait_list_urls.task_done()
if url is None:
break
res = requests.get(url=url, headers=get_headers(), timeout=5)
text = res.text
element = etree.HTML(text)
# 數(shù)據(jù)提取,更多數(shù)據(jù)提取,可自行編寫 xpath
title = element.xpath('//div[@class="info-head-l"]/h1/text()')
link = element.xpath('//div[@class="info-head-l"]/p[1]/a/text()')
description = element.xpath('//div[@class="info-head-l"]/p[2]/text()')
print(title, link, description)
if __name__ == "__main__":
# 初始化一個隊(duì)列
urls = Queue(maxsize=0)
last_page = get_total_page()
for p in range(1, last_page + 1):
urls.put(f"https://www.zhongjie.com/top/rank_all_{p}.html")
wait_list_urls = Queue(maxsize=0)
# 開啟2個生產(chǎn)者線程
for p_in in range(1, 3):
p = threading.Thread(target=producer)
p.start()
# 開啟2個消費(fèi)者線程
for p_in in range(1, 2):
p = threading.Thread(target=consumer)
p.start()到此這篇關(guān)于python利用多線程+隊(duì)列技術(shù)爬取中介網(wǎng)互聯(lián)網(wǎng)網(wǎng)站排行榜的文章就介紹到這了,更多相關(guān)python爬取網(wǎng)站排行榜內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
python中循環(huán)語句while用法實(shí)例
這篇文章主要介紹了python中循環(huán)語句while用法,實(shí)例分析了while語句的使用方法,需要的朋友可以參考下2015-05-05
入門tensorflow教程之TensorBoard可視化模型訓(xùn)練
在本篇文章中,主要介紹 了TensorBoard 的基礎(chǔ)知識,并了解如何可視化訓(xùn)練模型中的一些基本信息,希望對大家的TensorBoard可視化模型訓(xùn)練有所幫助2021-08-08
Pandas數(shù)據(jù)查詢的集中實(shí)現(xiàn)方法
本文主要介紹了Pandas數(shù)據(jù)查詢的集中實(shí)現(xiàn)方法,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2023-02-02
python實(shí)現(xiàn)轉(zhuǎn)圈打印矩陣
這篇文章主要為大家詳細(xì)介紹了python實(shí)現(xiàn)轉(zhuǎn)圈打印矩陣,具有一定的參考價值,感興趣的小伙伴們可以參考一下2019-03-03

