Python爬蟲模擬登錄帶驗證碼網(wǎng)站
爬取網(wǎng)站時經(jīng)常會遇到需要登錄的問題,這是就需要用到模擬登錄的相關(guān)方法。python提供了強(qiáng)大的url庫,想做到這個并不難。這里以登錄學(xué)校教務(wù)系統(tǒng)為例,做一個簡單的例子。
首先得明白cookie的作用,cookie是某些網(wǎng)站為了辨別用戶身份、進(jìn)行session跟蹤而儲存在用戶本地終端上的數(shù)據(jù)。因此我們需要用Cookielib模塊來保持網(wǎng)站的cookie。
這個是要登陸的地址 http://202.115.80.153/ 和驗證碼地址 http://202.115.80.153/CheckCode.aspx
可以發(fā)現(xiàn)這個驗證碼是動態(tài)更新的每次打開都不一樣,一般這種驗證碼和cookie是同步的。其次想識別驗證碼肯定是吃力不討好的事,因此我們的思路是首先訪問驗證碼頁面,保存驗證碼、獲取cookie用于登錄,然后再直接向登錄地址post數(shù)據(jù)。
首先通過抓包工具或者火狐或者谷歌瀏覽器分析登錄頁面需要post的request和header信息。以谷歌瀏覽器為例。


從中可以看出需要post的url并不是訪問的頁面,而是http://202.115.80.153/default2.aspx,
其中需要提交的表單數(shù)據(jù)中txtUserName和TextBox2分別用戶名和密碼。
現(xiàn)在直接到關(guān)鍵部分 上代碼??!
import urllib2
import cookielib
import urllib
import re
import sys
'''模擬登錄'''
reload(sys)
sys.setdefaultencoding("utf-8")
# 防止中文報錯
CaptchaUrl = "http://202.115.80.153/CheckCode.aspx"
PostUrl = "http://202.115.80.153/default2.aspx"
# 驗證碼地址和post地址
cookie = cookielib.CookieJar()
handler = urllib2.HTTPCookieProcessor(cookie)
opener = urllib2.build_opener(handler)
# 將cookies綁定到一個opener cookie由cookielib自動管理
username = 'username'
password = 'password123'
# 用戶名和密碼
picture = opener.open(CaptchaUrl).read()
# 用openr訪問驗證碼地址,獲取cookie
local = open('e:/image.jpg', 'wb')
local.write(picture)
local.close()
# 保存驗證碼到本地
SecretCode = raw_input('輸入驗證碼: ')
# 打開保存的驗證碼圖片 輸入
postData = {
'__VIEWSTATE': 'dDwyODE2NTM0OTg7Oz6pH0TWZk5t0lupp/tlA1L+rmL83g==',
'txtUserName': username,
'TextBox2': password,
'txtSecretCode': SecretCode,
'RadioButtonList1': '學(xué)生',
'Button1': '',
'lbLanguage': '',
'hidPdrs': '',
'hidsc': '',
}
# 根據(jù)抓包信息 構(gòu)造表單
headers = {
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
'Accept-Language': 'zh-CN,zh;q=0.8',
'Connection': 'keep-alive',
'Content-Type': 'application/x-www-form-urlencoded',
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2490.86 Safari/537.36',
}
# 根據(jù)抓包信息 構(gòu)造headers
data = urllib.urlencode(postData)
# 生成post數(shù)據(jù) ?key1=value1&key2=value2的形式
request = urllib2.Request(PostUrl, data, headers)
# 構(gòu)造request請求
try:
response = opener.open(request)
result = response.read().decode('gb2312')
# 由于該網(wǎng)頁是gb2312的編碼,所以需要解碼
print result
# 打印登錄后的頁面
except urllib2.HTTPError, e:
print e.code
# 利用之前存有cookie的opener登錄頁面
登錄成功后便可以利用該openr訪問其他需要登錄才能訪問的頁面。
相關(guān)文章
Pytorch+PyG實現(xiàn)EdgeCNN過程示例詳解
這篇文章主要為大家介紹了Pytorch+PyG實現(xiàn)EdgeCNN過程示例詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2023-04-04
詳解Python如何循環(huán)遍歷Numpy中的Array
Numpy是Python中常見的數(shù)據(jù)處理庫,是數(shù)據(jù)科學(xué)中經(jīng)常使用的庫。在本文中,我們將學(xué)習(xí)如何迭代遍歷訪問矩陣中的元素,需要的可以參考一下2022-04-04
python網(wǎng)絡(luò)爬蟲精解之XPath的使用說明
XPath 是一門在 XML 文檔中查找信息的語言。XPath 可用來在 XML 文檔中對元素和屬性進(jìn)行遍歷。XPath 是 W3C XSLT 標(biāo)準(zhǔn)的主要元素,并且 XQuery 和 XPointer 都構(gòu)建于 XPath 表達(dá)之上2021-09-09
Python sklearn庫實現(xiàn)PCA教程(以鳶尾花分類為例)
今天小編就為大家分享一篇Python sklearn庫實現(xiàn)PCA教程(以鳶尾花分類為例),具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-02-02
python opencv實現(xiàn)圖像配準(zhǔn)與比較
這篇文章主要為大家詳細(xì)介紹了python opencv實現(xiàn)圖像配準(zhǔn)與比較,文中示例代碼介紹的非常詳細(xì),具有一定的參考價值,感興趣的小伙伴們可以參考一下2021-02-02

