深入理解Python分布式爬蟲原理
首先,我們先來看看,如果是人正常的行為,是如何獲取網(wǎng)頁內(nèi)容的。
(1)打開瀏覽器,輸入U(xiǎn)RL,打開源網(wǎng)頁
(2)選取我們想要的內(nèi)容,包括標(biāo)題,作者,摘要,正文等信息
(3)存儲(chǔ)到硬盤中
上面的三個(gè)過程,映射到技術(shù)層面上,其實(shí)就是:網(wǎng)絡(luò)請(qǐng)求,抓取結(jié)構(gòu)化數(shù)據(jù),數(shù)據(jù)存儲(chǔ)。
我們使用Python寫一個(gè)簡(jiǎn)單的程序,實(shí)現(xiàn)上面的簡(jiǎn)單抓取功能。
#!/usr/bin/python
#-*- coding: utf-8 -*-
'''''
Created on 2014-03-16
@author: Kris
'''
import urllib2, re, cookielib
def httpCrawler(url):
'''''
@summary: 網(wǎng)頁抓取
'''
content = httpRequest(url)
title = parseHtml(content)
saveData(title)
def httpRequest(url):
'''''
@summary: 網(wǎng)絡(luò)請(qǐng)求
'''
try:
ret = None
SockFile = None
request = urllib2.Request(url)
request.add_header('User-Agent', 'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.2; SV1; .NET CLR 1.1.4322)')
request.add_header('Pragma', 'no-cache')
opener = urllib2.build_opener()
SockFile = opener.open(request)
ret = SockFile.read()
finally:
if SockFile:
SockFile.close()
return ret
def parseHtml(html):
'''''
@summary: 抓取結(jié)構(gòu)化數(shù)據(jù)
'''
content = None
pattern = '<title>([^<]*?)</title>'
temp = re.findall(pattern, html)
if temp:
content = temp[0]
return content
def saveData(data):
'''''
@summary: 數(shù)據(jù)存儲(chǔ)
'''
f = open('test', 'wb')
f.write(data)
f.close()
if __name__ == '__main__':
url = 'http://www.baidu.com'
httpCrawler(url)
看著很簡(jiǎn)單,是的,它就是一個(gè)爬蟲入門的基礎(chǔ)程序。當(dāng)然,在實(shí)現(xiàn)一個(gè)采集過程,無非就是上面的幾個(gè)基礎(chǔ)步驟。但是實(shí)現(xiàn)一個(gè)強(qiáng)大的采集過程,你會(huì)遇到下面的問題:
(1)需要帶著cookie信息訪問,比如大多數(shù)的社交化軟件,基本上都是需要用戶登錄之后,才能看到有價(jià)值的東西,其實(shí)很簡(jiǎn)單,我們可以使用Python提供的cookielib模塊,實(shí)現(xiàn)每次訪問都帶著源網(wǎng)站給的cookie信息去訪問,這樣只要我們成功模擬了登錄,爬蟲處于登錄狀態(tài),那么我們就可以采集到登錄用戶看到的一切信息了。下面是使用cookie對(duì)httpRequest()方法的修改:
ckjar = cookielib.MozillaCookieJar()
cookies = urllib2.HTTPCookieProcessor(ckjar) #定義cookies對(duì)象
def httpRequest(url):
'''''
@summary: 網(wǎng)絡(luò)請(qǐng)求
'''
try:
ret = None
SockFile = None
request = urllib2.Request(url)
request.add_header('User-Agent', 'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.2; SV1; .NET CLR 1.1.4322)')
request.add_header('Pragma', 'no-cache')
opener = urllib2.build_opener(cookies) #傳遞cookies對(duì)象
SockFile = opener.open(request)
ret = SockFile.read()
finally:
if SockFile:
SockFile.close()
return ret
(2)編碼問題。網(wǎng)站目前最多的兩種編碼:utf-8,或者gbk,當(dāng)我們采集回來源網(wǎng)站編碼和我們數(shù)據(jù)庫存儲(chǔ)的編碼不一致時(shí),比如,163.com的編碼使用的是gbk,而我們需要存儲(chǔ)的是utf-8編碼的數(shù)據(jù),那么我們可以使用Python中提供的encode()和decode()方法進(jìn)行轉(zhuǎn)換,比如:
content = content.decode('gbk', 'ignore') #將gbk編碼轉(zhuǎn)為unicode編碼
content = content.encode('utf-8', 'ignore') #將unicode編碼轉(zhuǎn)為utf-8編碼
中間出現(xiàn)了unicode編碼,我們需要轉(zhuǎn)為中間編碼unicode,才能向gbk或者utf-8轉(zhuǎn)換。
(3)網(wǎng)頁中標(biāo)簽不完整,比如有些源代碼中出現(xiàn)了起始標(biāo)簽,但沒有結(jié)束標(biāo)簽,HTML標(biāo)簽不完整,就會(huì)影響我們抓取結(jié)構(gòu)化數(shù)據(jù),我們可以通過Python的BeautifulSoup模塊,先對(duì)源代碼進(jìn)行清洗,再分析獲取內(nèi)容。
(4)某些網(wǎng)站使用JS來生存網(wǎng)頁內(nèi)容。當(dāng)我們直接查看源代碼的時(shí)候,發(fā)現(xiàn)是一堆讓人頭疼的JS代碼??梢允褂胢ozilla、webkit等可以解析瀏覽器的工具包解析js、ajax,雖然速度會(huì)稍微慢點(diǎn)。
(5)圖片是flash形式存在的。當(dāng)圖片中的內(nèi)容是文字或者數(shù)字組成的字符,那這個(gè)就比較好辦,我們只要利用ocr技術(shù),就能實(shí)現(xiàn)自動(dòng)識(shí)別了,但是如果是flash鏈接,我們將整個(gè)URL存儲(chǔ)起來了。
(6)一個(gè)網(wǎng)頁出現(xiàn)多個(gè)網(wǎng)頁結(jié)構(gòu)的情況,這樣我們?nèi)绻皇且惶鬃ト∫?guī)則,那肯定不行,所以需要配置多套模擬進(jìn)行協(xié)助配合抓取。
(7)應(yīng)對(duì)源網(wǎng)站的監(jiān)控。抓取別人的東西,畢竟是不太好的事情,所以一般網(wǎng)站都會(huì)有針對(duì)爬蟲禁止訪問的限制。
一個(gè)好的采集系統(tǒng),應(yīng)該是,不管我們的目標(biāo)數(shù)據(jù)在何處,只要是用戶能夠看到的,我們都能采集回來。所見即所得的無阻攔式采集,無論是否需要登錄的數(shù)據(jù)都能夠順利采集。大部分有價(jià)值的信息,一般都需要登錄才能看到,比如社交網(wǎng)站,為了應(yīng)對(duì)登錄的網(wǎng)站要有模擬用戶登錄的爬蟲系統(tǒng),才能正常獲取數(shù)據(jù)。不過社會(huì)化網(wǎng)站都希望自己形成一個(gè)閉環(huán),不愿意把數(shù)據(jù)放到站外,這種系統(tǒng)也不會(huì)像新聞等內(nèi)容那么開放的讓人獲取。這些社會(huì)化網(wǎng)站大部分會(huì)采取一些限制防止機(jī)器人爬蟲系統(tǒng)爬取數(shù)據(jù),一般一個(gè)賬號(hào)爬取不了多久就會(huì)被檢測(cè)出來被禁止訪問了。那是不是我們就不能爬取這些網(wǎng)站的數(shù)據(jù)呢?肯定不是這樣的,只要社會(huì)化網(wǎng)站不關(guān)閉網(wǎng)頁訪問,正常人能夠訪問的數(shù)據(jù),我們也能訪問。說到底就是模擬人的正常行為操作,專業(yè)一點(diǎn)叫“反監(jiān)控”。
源網(wǎng)站一般會(huì)有下面幾種限制:
1、一定時(shí)間內(nèi)單個(gè)IP訪問次數(shù),一個(gè)正常用戶訪問網(wǎng)站,除非是隨意的點(diǎn)著玩,否則不會(huì)在一段持續(xù)時(shí)間內(nèi)過快訪問一個(gè)網(wǎng)站,持續(xù)時(shí)間也不會(huì)太長(zhǎng)。這個(gè)問題好辦,我們可以采用大量不規(guī)則代理IP形成一個(gè)代理池,隨機(jī)從代理池中選擇代理,模擬訪問。代理IP有兩種,透明代理和匿名代理。
2、一定時(shí)間內(nèi)單個(gè)賬號(hào)訪問次數(shù),如果一個(gè)人一天24小時(shí)都在訪問一個(gè)數(shù)據(jù)接口,而且速度非???,那就有可能是機(jī)器人了。我們可以采用大量行為正常的賬號(hào),行為正常就是普通人怎么在社交網(wǎng)站上操作,并且單位時(shí)間內(nèi),訪問URL數(shù)目盡量減少,可以在每次訪問中間間隔一段時(shí)間,這個(gè)時(shí)間間隔可以是一個(gè)隨機(jī)值,即每次訪問完一個(gè)URL,隨機(jī)隨眠一段時(shí)間,再接著訪問下一個(gè)URL。
如果能把賬號(hào)和IP的訪問策略控制好了,基本就沒什么問題了。當(dāng)然對(duì)方網(wǎng)站也會(huì)有運(yùn)維會(huì)調(diào)整策略,敵我雙方的一場(chǎng)較量,爬蟲必須要能感知到對(duì)方的反監(jiān)控將會(huì)對(duì)我們有影響,通知管理員及時(shí)處理。其實(shí)最理想的是能夠通過機(jī)器學(xué)習(xí),智能的實(shí)現(xiàn)反監(jiān)控對(duì)抗,實(shí)現(xiàn)不間斷地抓取。
下面是本人近期正在設(shè)計(jì)的一個(gè)分布式爬蟲架構(gòu)圖,如圖1所示:

純屬拙作,初步思路正在實(shí)現(xiàn),正在搭建服務(wù)器和客戶端之間的通信,主要使用了Python的Socket模塊實(shí)現(xiàn)服務(wù)器端和客戶端的通信。如果有興趣,可以單獨(dú)和我聯(lián)系,共同探討完成更優(yōu)的方案。
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
Pandas把dataframe或series轉(zhuǎn)換成list的方法
這篇文章主要介紹了Pandas把dataframe或series轉(zhuǎn)換成list的方法,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-06-06
基于Python實(shí)現(xiàn)將列表數(shù)據(jù)生成折線圖
這篇文章主要介紹了如何利用Python中的pandas庫和matplotlib庫,實(shí)現(xiàn)將列表數(shù)據(jù)生成折線圖,文中的示例代碼簡(jiǎn)潔易懂,需要的可以參考一下2022-03-03
Windows11使用Cpython?編譯文件報(bào)錯(cuò)?error:?Unable?to?find?vcvars
這篇文章主要介紹了Windows11使用Cpython編譯文件報(bào)錯(cuò)error:Unable?to find?vcvarsall.bat完美解決方法,本文通過圖文并茂的形式給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2023-05-05
Matlab讀取excel并利用拉依達(dá)準(zhǔn)則篩選數(shù)據(jù)的全過程
在Excel中錄入好數(shù)據(jù)以后經(jīng)常需要被matlab讀取,具體該如何讀取并進(jìn)行篩選呢?下面這篇文章就來給大家介紹了關(guān)于Matlab讀取excel并利用拉依達(dá)準(zhǔn)則篩選數(shù)據(jù)的相關(guān)資料,需要的朋友可以參考下2021-08-08
Python中DataFrame判斷兩列數(shù)據(jù)是否相等的方法
本文主要介紹了DataFrame判斷兩列數(shù)據(jù)是否相等的方法,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2023-04-04
Python參數(shù)傳遞實(shí)現(xiàn)過程及原理詳解
這篇文章主要介紹了Python參數(shù)傳遞實(shí)現(xiàn)過程及原理詳解,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2020-05-05

