python抓取需要掃微信登陸頁面
一,抓取情況描述
1.抓取的頁面需要登陸,以公司網(wǎng)頁為例,登陸網(wǎng)址https://app-ticketsys.hezongyun.com/index.php ,(該網(wǎng)頁登陸方式微信掃碼登陸)
2.需要抓取的內(nèi)容如下圖所示:
需要提取
工單對應(yīng)編號,如TK-2960
工單發(fā)起時間,如2018-08-17 11:12:13
工單標題內(nèi)容,如設(shè)備故障
工單正文內(nèi)容,如最紅框所示

二,網(wǎng)頁分析
1.按按Ctrl + Shift + I或者鼠標右鍵點擊檢查進入開發(fā)人員工具。
可以看到頁面顯示如下:

主要關(guān)注點如上圖框住和劃線處
首先點擊網(wǎng)絡(luò),記住以下信息將用于代碼修改處。
Resquest URL:https: //app-ticketsys.hezongyun.com/index.php/ticket/ticket_list/init這個是需要爬取頁面的信息請求Menthod:GET餅干:用于需要登陸頁面User-Agent:Mozilla / 5.0(Windows NT 10.0; Win64; x64)AppleWebKit / 537.36(KHTML,類似Gecko)Chrome / 67.0.3396.62 Safari / 537.36
記住以上信息后粗略了解網(wǎng)頁樹形結(jié)構(gòu)用BeatifulSoup中SELEC怎么取出內(nèi)容
示例:的H1M1一段代碼如下:
html =“”“ <html> <head> <title>睡鼠的故事</ title> </ head> <body> <p class =”title“name =”dromouse“> <b>睡鼠的故事</ b > </ p> <p class =“story”>從前有三個小姐妹;他們的名字是 <a href =“http://example.com/elsie”class =“sister”id =“ link1“> <! - Elsie - > </a>, <a rel="external nofollow" class="sister" id="link2"> Lacie </a>和 <a href =“http://example.com/tillie”class =“sister”id =“l(fā)ink3”> Tillie </a>; 他們住在井底。</ p> <p class =“story”> ... </ p> “”“
如果我們喝湯得到了上面那段HTML的結(jié)構(gòu)提取內(nèi)容方法如下
1.通過標簽名查找soup.select( '標題'),如需要取出含有一個標簽的內(nèi)容則soup.select( 'a')的
2.通過類名查找soup.select( 'CLASS_NAME ')如取出標題的內(nèi)容則soup.select('。標題')
3.通過ID名字查找soup.select( '#ID_NAME')如取出ID = LINK2的內(nèi)容則soup.select( '#LINK2')
上述元素名字可以利用左上角箭頭取出,如下圖

三,程序編寫
# -*- coding:utf-8 -*-
import requests
import sys
import io
from bs4 import BeautifulSoup
import sys
import xlwt
import urllib,urllib2
import re
def get_text():
#登錄后才能訪問的網(wǎng)頁,這個就是我們在network里查看到的Request URL
url = 'https://app-ticketsys.hezongyun.com/index.php/ticket/ticket_iframe/'
#瀏覽器登錄后得到的cookie,這個就是我們在network里查看到的Coockie
cookie_str = r'ci_ticketsys_session=‘***********************************'
#把cookie字符串處理成字典
cookies = {}
for line in cookie_str.split(';'):
key, value = line.split('=', 1)
cookies[key] = value
#設(shè)置請求頭
headers = {'User-Agent':'Mozilla/5.0(Windows NT 10.0; Win64;x64)AppleWebKit/537.36 (KHTML, like Gecko)Chrome/67.0.3396.62 Safari/537.36'}
#在發(fā)送get請求時帶上請求頭和cookies
resp = requests.get(url, cookies = cookies,headers = headers)
soup = BeautifulSoup(resp.text,"html.parser")
print soup
上述代碼就能得到登陸網(wǎng)頁的HTML源碼,這個源碼呈一個樹形結(jié)構(gòu),接下來針對需求我們提取需要的內(nèi)容進行提取
我們需要工單號,對應(yīng)時間,對應(yīng)標題

按箭頭點擊到對應(yīng)工單大塊,可以查詢到,所有的工單號,工單發(fā)起時間,工單標題均在<ul id =“ticket-list”>這個id下面

那么點開一個工單結(jié)構(gòu),例如工單號ID = “4427” 下面我們需要知道工單號,工單發(fā)起時間,工單內(nèi)容可以看到
1.工單內(nèi)容在H3標簽下面
2.工單編號在類=“NUM”下面
3.工單發(fā)起時間在類= “時間” 下面
for soups in soup.select('#ticket-list'):
if len(soups.select('h3'))>0:
id_num = soups.select('.num')
star_time = soups.select('.time')
h3 = soups.select('h3')
print id_num,start_time,h3
總結(jié)
以上所述是小編給大家介紹的python抓取需要掃微信登陸頁面,希望對大家有所幫助,如果大家有任何疑問請給我留言,小編會及時回復(fù)大家的。在此也非常感謝大家對腳本之家網(wǎng)站的支持!
如果你覺得本文對你有幫助,歡迎轉(zhuǎn)載,煩請注明出處,謝謝!
相關(guān)文章
Python打開指定網(wǎng)頁使用requests模塊爬蟲示例詳解
這篇文章主要介紹了Python打開指定網(wǎng)頁使用requests模塊爬蟲的示例,Python?requests是一個常用的HTTP請求庫,可以方便地向網(wǎng)站發(fā)送HTTP請求,并獲取響應(yīng)結(jié)果,requests模塊比urllib模塊更簡潔,感興趣的朋友可以參考下2024-02-02
pyqt5+opencv?實現(xiàn)讀取視頻數(shù)據(jù)的方法
這篇文章主要介紹了pyqt5+opencv?實現(xiàn)讀取視頻數(shù)據(jù)的方法,本文通過實例代碼給大家介紹的非常詳細,對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下2022-01-01
Python統(tǒng)計時間內(nèi)的并發(fā)數(shù)代碼實例
這篇文章主要介紹了Python統(tǒng)計時間內(nèi)的并發(fā)數(shù)代碼實例,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下2019-12-12
python如何實現(xiàn)int函數(shù)的方法示例
int()函數(shù)常用來把其他類型轉(zhuǎn)換為整數(shù),下面這篇文章主要給大家介紹了關(guān)于python如何實現(xiàn)int函數(shù)的相關(guān)資料,文中通過示例代碼介紹的非常詳細,需要的朋友可以參考借鑒,下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧。2018-02-02

