python爬蟲之bs4數(shù)據(jù)解析
一、實(shí)現(xiàn)數(shù)據(jù)解析
因?yàn)檎齽t表達(dá)式本身有難度,所以在這里為大家介紹一下 bs4 實(shí)現(xiàn)數(shù)據(jù)解析。除此之外還有 xpath 解析。因?yàn)?xpath 不僅可以在 python 中使用,所以 bs4 和 正則解析一樣,僅僅是簡(jiǎn)單地寫兩個(gè)案例(爬取可翻頁(yè)的圖片,以及爬取三國(guó)演義)。以后的重點(diǎn)會(huì)在 xpath 上。
二、安裝庫(kù)
閑話少說,我們先來安裝 bs4 相關(guān)的外來庫(kù)。比較簡(jiǎn)單。
1.首先打開 cmd 命令面板,依次安裝bs4 和 lxml。
2. 命令分別是 pip install bs4 和 pip install lxml 。
3. 安裝完成后我們可以試著調(diào)用他們,看看會(huì)不會(huì)報(bào)錯(cuò)。
因?yàn)楸救怂接邢?,所以如果出現(xiàn)報(bào)錯(cuò),兄弟們還是百度一下好啦。(總不至于 cmd 命令打錯(cuò)了吧 ~~)
三、bs4 的用法
閑話少說,先簡(jiǎn)單介紹一下 bs4 的用法。


四、爬取圖片
import requests
from bs4 import BeautifulSoup
import os
if __name__ == "__main__":
# 創(chuàng)建文件夾
if not os.path.exists("./糗圖(bs4)"):
os.mkdir("./糗圖(bs4)")
# UA偽裝
header = {
"user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.72 Safari/537.36"
}
# 指定 url
for i in range(1, 3): # 翻兩頁(yè)
url = "https://www.qiushibaike.com/imgrank/page/%s/" % str(i)
# 獲取源碼數(shù)據(jù)
page = requests.get(url = url, headers = header).text
# 數(shù)據(jù)解析
soup = BeautifulSoup(page, "lxml")
data_list = soup.select(".thumb > a")
for data in data_list:
url = data.img["src"]
title = url.split("/")[-1]
new_url = "https:" + url
photo = requests.get(url = new_url, headers = header).content
# 存儲(chǔ)
with open("./糗圖(bs4)/" + title, "wb") as fp:
fp.write(photo)
print(title, "下載完成?。?!")
print("over!!!")
五、爬取三國(guó)演義
import requests
from bs4 import BeautifulSoup
if __name__ == "__main__":
# UA 偽裝
header = {
"user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36"
}
# URL
url = "http://sanguo.5000yan.com/"
# 請(qǐng)求命令
page_text = requests.get(url = url, headers = header)
page_text.encoding = "utf-8"
page_text = page_text.text
soup = BeautifulSoup(page_text, "lxml")
# bs4 解析
li_list = soup.select(".sidamingzhu-list-mulu > ul > li")
for li in li_list:
print(li)
new_url = li.a["href"]
title = li.a.text
# 新的請(qǐng)求命令
response = requests.get(url = new_url, headers = header)
response.encoding = "utf-8"
new_page_text = response.text
new_soup = BeautifulSoup(new_page_text, "lxml")
page = new_soup.find("div", class_ = "grap").text
with open("./三國(guó)演義.txt", "a", encoding = "utf-8") as fp:
fp.write("\n" + title + ":" + "\n" + "\n" + page)
print(title + "下載完成?。?!")
到此這篇關(guān)于python爬蟲之bs4數(shù)據(jù)解析的文章就介紹到這了,更多相關(guān)python bs4數(shù)據(jù)解析內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
使用 Python 和 OpenCV 實(shí)現(xiàn)攝像頭人臉檢測(cè)并截圖功能
在現(xiàn)代應(yīng)用中,人臉檢測(cè)是一項(xiàng)非常重要的技術(shù),廣泛應(yīng)用于安全監(jiān)控、身份驗(yàn)證等領(lǐng)域,本文詳細(xì)介紹了如何使用 Python 和 OpenCV 庫(kù)實(shí)現(xiàn)攝像頭人臉檢測(cè)并截圖,并通過具體的代碼示例展示了整個(gè)過程,感興趣的朋友一起看看吧2024-11-11
Python利用docx模塊實(shí)現(xiàn)快速操作word文件
這篇文章主要為大家詳細(xì)介紹了Python如何利用docx模塊實(shí)現(xiàn)快速操作word文件,文中的示例代碼講解詳細(xì),感興趣的小伙伴可以跟隨小編一起學(xué)習(xí)一下2022-09-09
點(diǎn)云地面點(diǎn)濾波(Cloth Simulation Filter, CSF)
這篇文章主要介紹了點(diǎn)云地面點(diǎn)濾波(Cloth Simulation Filter, CSF)“布料”濾波算法介紹,本文從基本思想到實(shí)現(xiàn)思路一步步給大家講解的非常詳細(xì),需要的朋友可以參考下2021-08-08
在pytorch中為Module和Tensor指定GPU的例子
今天小編就為大家分享一篇在pytorch中為Module和Tensor指定GPU的例子,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2019-08-08
python通過Seq2Seq實(shí)現(xiàn)閑聊機(jī)器人
這篇文章主要介紹了python通過Seq2Seq實(shí)現(xiàn)閑聊機(jī)器人,文中有非常詳細(xì)的代碼示例,對(duì)正在學(xué)習(xí)python的小伙伴們有很好的幫助,需要的朋友可以參考下2021-04-04
Python爬蟲爬取電影票房數(shù)據(jù)及圖表展示操作示例
這篇文章主要介紹了Python爬蟲爬取電影票房數(shù)據(jù)及圖表展示操作,結(jié)合實(shí)例形式分析了Python爬蟲爬取、解析電影票房數(shù)據(jù)并進(jìn)行圖表展示操作相關(guān)實(shí)現(xiàn)技巧,需要的朋友可以參考下2020-03-03

