Python爬蟲包BeautifulSoup簡介與安裝(一)
先發(fā)官方文檔的地址:官方文檔
學習使用的書籍是Python網絡數據采集(Ryan Mitchell著),大約是一些筆記的整理。
Beautiful Soup的簡介
簡單來說,Beautiful Soup是python的一個庫,最主要的功能是從網頁抓取數據。官方解釋如下:
Beautiful Soup提供一些簡單的、python式的函數用來處理導航、搜索、修改分析樹等功能。它是一個工具箱,通過解析文檔為用戶提供需要抓取的數據,因為簡單,所以不需要多少代碼就可以寫出一個完整的應用程序。
Beautiful Soup自動將輸入文檔轉換為Unicode編碼,輸出文檔轉換為utf-8編碼。你不需要考慮編碼方式,除非文檔沒有指定一個編碼方式,這時,Beautiful Soup就不能自動識別編碼方式了。然后,你僅僅需要說明一下原始編碼方式就可以了。
Beautiful Soup已成為和lxml、html6lib一樣出色的python解釋器,為用戶靈活地提供不同的解析策略或強勁的速度。
安裝
Beautiful Soup 3 目前已經停止開發(fā),推薦在現在的項目中使用Beautiful Soup 4,不過它已經被移植到BS4了,也就是說導入時我們需要 import bs4 。所以這里我們用的版本是 Beautiful Soup 4.3.2 (簡稱BS4)。
書本中的源代碼用的是Python3,但是據說 BS4 對 Python3 的支持不夠好,所以我用的是 Python2.7。源碼中也會相應地調整一些包的引入。
因為之前寫過CNN等,需要在windows下配置環(huán)境,所以已經安裝了anaconda。如果安裝了anaconda的讀者,可以直接使用pip安裝,conda需要搜索一下,直接安裝時不行的。
anaconda search -t conda beautifulsoup conda install beautifulsoup4 pip install beautifulsoup4
如果想安裝最新的版本,請直接下載安裝包來手動安裝,也是十分方便的方法。在這里我安裝的是 beautifulsoup4 (4.5.1)
下載完成之后解壓
運行下面的命令即可完成安裝
sudo python setup.py install
有時候的安裝方式會需手動安裝 lxml,如果用conda安裝會自動把依賴包給安裝上。
pip install lxml
創(chuàng)建 Beautiful Soup 對象
首先導入bs4庫
from bs4 import BeautifulSoup
用urlopen讀取一段HTML的內容
import sys if sys.version_info[0] == 2: from urllib2 import urlopen # Python 2 else: from urllib.request import urlopen # Python3 html = urlopen(http://www.pythonscraping.com/exercises/exercise1.html)
用讀取的內容創(chuàng)建beautifulsoup 對象
bsObj = BeautifulSoup(html.read()) print(bsObj.h1)
此外我們也可以用本地的HTML文件來創(chuàng)建對象,例如
soup = BeautifulSoup(open('index.html'))
輸出測試
print bsObj.h1 print bsObj.prettify()
<h1>An Interesting Title</h1>
<html> <head> <title> A Useful Page </title> </head> <body> <h1> An Interesting Title </h1> <div> Lorem ipsum dolor sit amet, consectetur adipisicing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat. Duis aute irure dolor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur. Excepteur sint occaecat cupidatat non proident, sunt in culpa qui officia deserunt mollit anim id est laborum. </div> </body> </html>
以上便是輸出結果,格式化打印出了它的內容,并且可以通過成員對象的方式獲得解析后的HTML層次。
以上全部為本篇文章的全部內容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。
相關文章
詳解python定時簡單爬取網頁新聞存入數據庫并發(fā)送郵件
這篇文章主要介紹了python定時簡單爬取網頁新聞存入數據庫并發(fā)送郵件,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2020-11-11
使用coverage統(tǒng)計python web項目代碼覆蓋率的方法詳解
這篇文章主要介紹了使用coverage統(tǒng)計python web項目代碼覆蓋率的方法,詳細分析了coverage的安裝以及coverage命令統(tǒng)計py文件相關操作技巧,需要的朋友可以參考下2019-08-08
解決Django數據庫makemigrations有變化但是migrate時未變動問題
今天小編就為大家分享一篇解決Django數據庫makemigrations有變化但是migrate時未變動的問題,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-05-05
python 實現將文件或文件夾用相對路徑打包為 tar.gz 文件的方法
今天小編就為大家分享一篇python 實現將文件或文件夾用相對路徑打包為 tar.gz 文件的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-06-06

