使用Python的urllib和urllib2模塊制作爬蟲的實例教程
urllib
學習python完基礎,有些迷茫.眼睛一閉,一種空白的窒息源源不斷而來.還是缺少練習,遂拿爬蟲來練練手.學習完斯巴達python爬蟲課程后,將心得整理如下,供后續(xù)翻看.整篇筆記主要分以下幾個部分:
- 1.做一個簡單的爬蟲程序
- 2.小試牛刀--抓取百度貼吧圖片
- 3.總結
1.做一個簡單的爬蟲程序
首先環(huán)境描述
- Device: Mba 2012 Yosemite 10.10.1
- Python: python 2.7.9
- 編輯器: Sublime Text 3
這個沒有什么好說的,直接上代碼吧!
''' @ urllib為python自帶的一個網絡庫 @ urlopen為urllib的一個方法,用于打開一個連接并抓取網頁, 然后通過read()方法把值賦給read() ''' import urllib url = "http://www.lifevc.com"#多嘴兩句,為什么要選lifevc呢,主要是最近它很惹我. html = urllib.urlopen(url) content = html.read() html.close() #可以通過print打印出網頁內容 print content
很簡單,基本上沒有可說的,這個也就是python的魅力,幾行代碼就完成.
當然我們僅僅抓取網頁,沒有實在的價值.接下來我們就開始做一點有意義的事情.
2.小試牛刀
抓取百度貼吧圖片
其實也很簡單,因為要抓取圖片,還需要先分析一下網頁源代碼
(這里以知道基本html知識,瀏覽器以chrome為例)
如圖,這里簡要說下步驟,請參考.
打開網頁,右鍵點擊,選擇"inspect Element"(最下面這一項)
點擊下面彈起來的框框最左邊那個問號,問號會變成藍色
移動鼠標去點擊我們想要抓取的圖片(一個萌妹子)
如圖,我們就可以圖片在源碼中的位置了

下面將源碼相關拷貝出來
<img class="BDE_Image" src="http://imgsrc.baidu.com/forum/w%3D580/ sign=3d5aacaab21c8701d6b6b2ee177e9e6e/17a6d439b6003af329aece2e342ac65c1138b6d8. jpg" height="840" width="560" style="cursor: url(http://tb2.bdstatic.com/tb/ static-pb/img/cur_zin.cur), pointer;">
經分析和對比(這里略掉),基本上可以看到要抓取的圖片幾個特征:
- 在img標簽下
- 在名為BDE_Image的類下面
- 圖片格式為jpg
正則表達式后續(xù)我會更新,請關注
依照上述判斷,直接上代碼
''' @本程序用來下載百度貼吧圖片 @re 為正則說明庫 ''' import urllib import re # 獲取網頁html信息 url = "http://tieba.baidu.com/p/2336739808" html = urllib.urlopen(url) content = html.read() html.close() # 通過正則匹配圖片特征,并獲取圖片鏈接 img_tag = re.compile(r'class="BDE_Image" src="(.+?\.jpg)"') img_links = re.findall(img_tag, content) # 下載圖片 img_counter為圖片計數器(文件名) img_counter = 0 for img_link in img_links: img_name = '%s.jpg' % img_counter urllib.urlretrieve(img_link, "http://Users//Sean//Downloads//tieba//%s" %img_name) img_counter += 1
如圖,我們就抓取你懂的圖片

3.總結
如上兩節(jié),我們就很輕松的就可以網頁或者圖片.
補充一點小技巧,如果遇到不是很明白的庫或者方法,可以通過以下方法進行初步了解.
- dir(urllib) #查看當前庫有哪些方法
- help(urllib.urlretrieve) #查看跟當前方法相關的作用或者參數,官方比較權威
或者https://docs.python.org/2/library/index.html進項相關搜索.
當然百度也可以,但是效率太低.建議使用 http://xie.lu 進行相關搜索(你懂了,絕對滿意).
這里我們講解如何抓取網頁和下載圖片,在下面我們會講解如何抓取有限制抓取的網站.
urllib2
上面我們講解如何抓取網頁和下載圖片,在下一節(jié)里面我們會講解如何抓取有限制抓取的網站
首先,我們依然用我們上一節(jié)課的方法去抓取一個大家都用來舉例的網站<blog.cndn.net>,本文主要分以下幾個部分:
- 1.抓取受限網頁
- 2.對代碼進行一些優(yōu)化
1.抓取受限網頁
首先使用我們上一節(jié)學到的知識測試一下:
''' @本程序用來抓取blog.csdn.net網頁 ''' import urllib url = "http://blog.csdn.net/FansUnion" html = urllib.urlopen(url) #getcode()方法為返回Http狀態(tài)碼 print html.getcode() html.close() #輸出
403
此處我們的輸出為403,代表拒絕訪問;同理200表示請求成功完成;404表示網址未找到.
可見csdn已做了相關屏蔽,通過第一節(jié)的方法是無法獲取網頁,在這里我們需要啟動一個新的庫:urllib2
但是我們也看到瀏覽器可以發(fā)那個文,是不是我們模擬瀏覽器操作,就可以獲取網頁信息.
老辦法,我們先來看看瀏覽器是如何提交請求給csdn服務器的.首先簡述一下方法:
- 打開網頁,右鍵點擊,選擇"inspect Element"(最下面這一項)
- 點擊下面彈起來的框框的Network選項卡
- 刷新網頁,就可以看到Network選項卡抓取了很多信息
- 找到其中一個信息展開,就能看到請求包的Header

以下就是整理后的Header信息
Request Method:GET Host:blog.csdn.net Referer:http://blog.csdn.net/?ref=toolbar_logo User-Agent:Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2125.104 Safari/537.36
然后根據提取的Header信息,利用urllib2的Request方法模擬瀏覽器向服務器提交請求,代碼如下:
# coding=utf-8
'''
@本程序用來抓取受限網頁(blog.csdn.net)
@User-Agent:客戶端瀏覽器版本
@Host:服務器地址
@Referer:跳轉地址
@GET:請求方法為GET
'''
import urllib2
url = "http://blog.csdn.net/FansUnion"
#定制自定義Header,模擬瀏覽器向服務器提交請求
req = urllib2.Request(url)
req.add_header('User-Agent', 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36')
req.add_header('Host', 'blog.csdn.net')
req.add_header('Referer', 'http://blog.csdn.net')
req.add_header('GET', url)
#下載網頁html并打印
html = urllib2.urlopen(req)
content = html.read()
print content
html.close()
呵呵,你限制我,我就跳過你的限制.據說只要瀏覽器能夠訪問的,就能夠通過爬蟲抓取.
2.對代碼進行一些優(yōu)化
簡化提交Header方法
發(fā)現(xiàn)每次寫那么多req.add_header對自己來說是一種折磨,有沒有什么方法可以只要復制過來就使用.答案是肯定的.
#input:
help(urllib2.Request)
#output(因篇幅關系,只取__init__方法)
__init__(self, url, data=None, headers={}, origin_req_host=None, unverifiable=False)
通過觀察,我們發(fā)現(xiàn)headers={},就是說可以以字典的方式提交header信息.那就動手試試咯!!
#只取自定義Header部分代碼
csdn_headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36",
"Host": "blog.csdn.net",
'Referer': 'http://blog.csdn.net',
"GET": url
}
req = urllib2.Request(url,headers=csdn_headers)
發(fā)現(xiàn)是不是很簡單,在這里感謝斯巴達的無私賜教.
提供動態(tài)頭部信息
如果按照上述方法進行抓取,很多時候會因為提交信息過于單一,被服務器認為是機器爬蟲進行拒絕.
那我們是不是有一些更為智能的方法提交一些動態(tài)的數據,答案肯定也是肯定的.而且很簡單,直接上代碼!
'''
@本程序是用來動態(tài)提交Header信息
@random 動態(tài)庫,詳情請參考<https://docs.python.org/2/library/random.html>
'''
# coding=utf-8
import urllib2
import random
url = 'http://www.lifevc.com/'
my_headers = [
'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0; .NET CLR 2.0.50727; .NET CLR 3.0.04506.30; .NET CLR 3.0.04506.648)',
'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0; .NET CLR 2.0.50727; InfoPath.1',
'Mozilla/4.0 (compatible; GoogleToolbar 5.0.2124.2070; Windows 6.0; MSIE 8.0.6001.18241)',
'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0)',
'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0; Sleipnir/2.9.8)',
#因篇幅關系,此處省略N條
]
random_header = random.choice(headers)
# 可以通過print random_header查看提交的header信息
req = urllib2.Request(url)
req.add_header("User-Agent", random_header)
req.add_header('Host', 'blog.csdn.net')
req.add_header('Referer', 'http://blog.csdn.net')
req.add_header('GET', url)
content = urllib2.urlopen(req).read()
print content
其實很簡單,這樣我們就完成了對代碼的一些優(yōu)化.
- Python爬蟲之urllib基礎用法教程
- Python爬蟲 urllib2的使用方法詳解
- python urllib爬蟲模塊使用解析
- python爬蟲 urllib模塊發(fā)起post請求過程解析
- python爬蟲 urllib模塊url編碼處理詳解
- python爬蟲 urllib模塊反爬蟲機制UA詳解
- 用python3 urllib破解有道翻譯反爬蟲機制詳解
- 詳解Python3網絡爬蟲(二):利用urllib.urlopen向有道翻譯發(fā)送數據獲得翻譯結果
- Python3爬蟲之urllib攜帶cookie爬取網頁的方法
- python爬蟲之urllib,偽裝,超時設置,異常處理的方法
- python爬蟲之urllib庫常用方法用法總結大全
- python爬蟲之urllib3的使用示例
- Python爬蟲中urllib庫的進階學習
- python利用urllib實現(xiàn)爬取京東網站商品圖片的爬蟲實例
- python3使用urllib模塊制作網絡爬蟲
- Python中使用urllib2模塊編寫爬蟲的簡單上手示例
- Python中urllib+urllib2+cookielib模塊編寫爬蟲實戰(zhàn)
- python爬蟲開發(fā)之urllib模塊詳細使用方法與實例全解
相關文章
Python使用matplotlib填充圖形指定區(qū)域代碼示例
這篇文章主要介紹了Python使用matplotlib填充圖形指定區(qū)域代碼示例,具有一定借鑒價值,需要的朋友可以參考下2018-01-01
Python Pytorch gpu 分析環(huán)境配置
Pytorch是目前最火的深度學習框架之一,目前也支持了pytorch的GPU加速,所以我就想著,在這兩個電腦上裝個Pytorch,這篇文章主要介紹了Python Pytorch(gpu)分析環(huán)境配置,需要的朋友可以參考下2023-04-04
python基于urllib實現(xiàn)按照百度音樂分類下載mp3的方法
這篇文章主要介紹了python基于urllib實現(xiàn)按照百度音樂分類下載mp3的方法,涉及Python使用urllib模塊操作頁面元素的相關技巧,需要的朋友可以參考下2015-05-05
使用Python實現(xiàn)XLS和XLSX之間的相互轉換
在日常工作中,我們經常需要處理和轉換不同格式的Excel文件,以適應不同的需求和軟件兼容性,Excel文件的兩種常見格式是XLS(Excel 97-2003)和XLSX(Excel 2007及以上版本),本文將詳細介紹如何使用Python在XLS和XLSX格式之間進行轉換,需要的朋友可以參考下2024-09-09
解決pandas .to_excel不覆蓋已有sheet的問題
今天小編就為大家分享一篇解決pandas .to_excel不覆蓋已有sheet的問題,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-12-12
Python MySQLdb 使用utf-8 編碼插入中文數據問題
這篇文章主要介紹了Python MySQLdb 使用utf-8 編碼插入中文數據問題,需要的朋友可以參考下2018-03-03

