python3?requests中文亂碼之壓縮格式問題解析
我們在爬蟲時,經(jīng)常會遇見中文亂碼問題,之前都是編碼格式的問題,很少遇見由于壓縮格式造成的編碼混亂問題,特記錄下。先看下混亂的編碼樣式。
b'a\xd4l\x00 G6\xb5\xaa\xdf\xeaAy\x0f\xa0\xcaoZ\x92I&\x88\x14$p\xd8N\xb8\xaau\x02\xab\xdf\xeb\xac\x89r\x112q\x91\x99\xd8t\x1b\xa1"\x0b]\xb7\xf2\xee\xde[\xe8\x8a.\xd1\xa5\xe9(ZqE\xa1q\x08\x9dV\x0f\xba\x90\x11\x16K\x10^~\xc5|7\x02\x17\xd6\xef\t\x17\xea5\xe6}\xb6\x95\xf1\x91\xf6H\xa9o+s\xd3\xadv\xa9\xff\xb3\xad\xec\
我們先看下header
header = {
"Content-Type":"application/json",
"Accept": "application/json",
"Accept-Encoding": "gzip, deflate, br",
"Accept-Language": "zh-CN,zh;q=0.9",
"Agw-Js-Conv": 'str',
"Connection": "keep-alive",
"Cookie":"***",
"Host": "life.douyin.com",
"Referer": "https://life.douyin.com/p/login",
"sec-ch-ua": '"Chromium";v="104", " Not A;Brand";v="99", "Google Chrome";v="104"',
"sec-ch-ua-platform": "Android",
"Sec-Fetch-Dest": "empty",
"Sec-Fetch-Mode": "cors",
"Sec-Fetch-Site": "same-origin",
"User-Agent": "Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.0.0 Mobile Safari/537.36",
"x-secsdk-csrf-token": "*",
}我們注意到Content-Type是application/json,我們的數(shù)據(jù)是jason格式,這時要考慮中文轉(zhuǎn)換問題,用utf-8來把中文從unicode轉(zhuǎn)過來。
我們轉(zhuǎn)了后發(fā)現(xiàn)解析出來的數(shù)據(jù)還是亂碼,這是什么情況呢?我們先看下請求頭和響應(yīng)頭關(guān)于字段的解釋
| 請求頭字段 | 說明 | 響應(yīng)頭字段 |
| Accept | 告知服務(wù)器發(fā)送何種媒體類型 | Content-Type |
| Accept-Language | 告知服務(wù)器發(fā)送何種語言 | Content-Language |
| Accept-Charset | 告知服務(wù)器發(fā)送何種字符集 | Content-Type |
| Accept-Encoding | 告知服務(wù)器采用何種壓縮方式 | Content-Encoding |
我們再看"Accept-Encoding",這個意思就是返回的數(shù)據(jù)使用的是什么壓縮格式,平常我們經(jīng)常使用"gzip, deflate",這是我們發(fā)現(xiàn)后面還跟了個br,br是什么格式呢?
br 指的是 Brotli,是一種全新的數(shù)據(jù)格式,無損壓縮,壓縮比極高(比gzip高的)
這需要單獨(dú)導(dǎo)入brotil庫
安裝
pip install Brotli
安裝后我們使用brotli來解析數(shù)據(jù)即可,
data = brotli.decompress(res.content)
還有一種最簡單的方法,我們修改請求頭,高速服務(wù)器,我不支持br格式,這樣服務(wù)器就不會用br來壓縮數(shù)據(jù)了
"Accept-Encoding": "gzip, deflate",
補(bǔ)充下:BrotliDecompress failed錯誤問題
剛開始我用request庫時發(fā)現(xiàn),對返回的response數(shù)據(jù)必須要引入brotli,這樣才能解壓縮數(shù)據(jù),如果不引入無法解析數(shù)據(jù),還是會反回亂碼數(shù)據(jù)
import brotli
res = requests.get(url,headers = header,verify=False)
print(res.content)
print(res.text)
if res.headers.get('Content-Encoding') == 'br':
data = brotli.decompress(res.content)
print(data.decode('utf-8'))
else:
print(res.text)但是在我使用httpx后,發(fā)先再使用brotli.decompress()方法,會造成報錯
Traceback (most recent call last):
File "/****", line 61, in <module>
data = brotli.decompress(res.content)
brotli.error: BrotliDecompress failed
這時無需引入brotli庫,httpx會自動引入,自動調(diào)用
import json
finish_data = []
with httpx.Client(http2=True, verify=False) as client:
cookies = httpx.Cookies()
res = client.get(url,headers = header)
if res.headers.get('Content-Encoding') == 'br':
data = res.content.decode('utf-8')
print(data)
else:
print(res.text)到此這篇關(guān)于python3 requests中文亂碼問題之壓縮格式問題的文章就介紹到這了,更多相關(guān)python3 requests中文亂碼內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
Django中的CACHE_BACKEND參數(shù)和站點(diǎn)級Cache設(shè)置
這篇文章主要介紹了Django中的CACHE_BACKEND參數(shù)和站點(diǎn)級Cache設(shè)置,Python是最具人氣的Python web框架,需要的朋友可以參考下2015-07-07
pycharm遠(yuǎn)程linux開發(fā)和調(diào)試代碼的方法
這篇文章主要介紹了pycharm遠(yuǎn)程linux開發(fā)和調(diào)試代碼的方法,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2018-07-07
pytest利用request?fixture實現(xiàn)個性化測試需求詳解
這篇文章主要為大家詳細(xì)介紹了pytest如何利用request?fixture實現(xiàn)個性化測試需求,文中的示例代碼講解詳細(xì),感興趣的小伙伴可以跟隨小編一起了解一下2023-09-09
python數(shù)據(jù)結(jié)構(gòu)leetcode338比特位計數(shù)算法
這篇文章主要介紹了力扣刷題中python數(shù)據(jù)結(jié)構(gòu)leetcode338比特位計數(shù)算法解析,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2022-06-06
在Python中使用MongoEngine操作數(shù)據(jù)庫教程實例
這篇文章主要介紹了在Python中使用MongoEngine操作數(shù)據(jù)庫教程實例,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下2019-12-12
python爬蟲入門教程之點(diǎn)點(diǎn)美女圖片爬蟲代碼分享
這篇文章主要介紹了python爬蟲入門教程之點(diǎn)點(diǎn)美女圖片爬蟲代碼分享,本文以采集抓取點(diǎn)點(diǎn)網(wǎng)美女圖片為例,需要的朋友可以參考下2014-09-09
如何基于Python實現(xiàn)數(shù)字類型轉(zhuǎn)換
這篇文章主要介紹了如何基于Python實現(xiàn)數(shù)字類型轉(zhuǎn)換,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下2020-02-02

