詳解用Python爬蟲獲取百度企業(yè)信用中企業(yè)基本信息
一、背景
希望根據(jù)企業(yè)名稱查詢其經(jīng)緯度,所在的省份、城市等信息。直接將企業(yè)名稱傳給百度地圖提供的API,得到的經(jīng)緯度是非常不準(zhǔn)確的,因此希望獲取企業(yè)完整的地理位置,這樣傳給API后結(jié)果會(huì)更加準(zhǔn)確。
百度企業(yè)信用提供了企業(yè)基本信息查詢的功能。希望通過Python爬蟲獲取企業(yè)基本信息。目前已基本實(shí)現(xiàn)了這一需求。
本文最后會(huì)提供具體的代碼。代碼僅供學(xué)習(xí)參考,希望不要惡意爬取數(shù)據(jù)!
二、分析
以蘇寧為例。輸入“江蘇蘇寧”后,查詢結(jié)果如下:

經(jīng)過分析,這里列示的企業(yè)信息是用JavaScript動(dòng)態(tài)生成的。服務(wù)器最初傳過來的未經(jīng)渲染的HTML如下:

注意其中標(biāo)注出來的JS代碼。有意思的是,企業(yè)基本信息都可以直接從這段JS代碼中獲取,無需構(gòu)造復(fù)雜的參數(shù)。

這是進(jìn)一步查看的結(jié)果,注意那個(gè)“resultList”,后面存放的就是頁面中的企業(yè)信息。顯然,利用正則表達(dá)式提取需要的字符串,轉(zhuǎn)換成JSON就可以了。
三、源碼
以下代碼為查詢某個(gè)企業(yè)的基本信息提供了API:
#!/usr/bin/env python
# -*- coding:utf-8 -*-
# @Author: Wild Orange
# @Email: jixuanfan_seu@163.com
# @Date: 2020-06-19 22:38:14
# @Last Modified time: 2020-07-01 17:33:13
import requests
import re
import json
headers={'User-Agent': 'Chrome/76.0.3809.132'}
#正則表達(dá)式提取數(shù)據(jù)
re_get_js=re.compile(r'<script>([\s\S]*?)</script>')
re_resultList=re.compile(r'"resultList":(\[{.+?}\]}])')
def Get_company_info(name):
'''
@func: 通過百度企業(yè)信用查詢企業(yè)基本信息
'''
url='https://xin.baidu.com/s?q=%s'%name
res=requests.get(url,headers=headers)
if res.status_code==200:
html=res.text
retVal=_parse_baidu_company_info(html)
return retVal
else:
print('無法獲取%s的企業(yè)信息'%name)
def _parse_baidu_company_info(html):
'''
@function:解析百度企業(yè)信用提供的企業(yè)基本信息
@output: list of dict, [{},{},...]
pid: 跳轉(zhuǎn)到具體企業(yè)頁面的參數(shù)
bid: 具體企業(yè)頁面URL中的參數(shù)
name: 企業(yè)名稱
type: 企業(yè)類型
date: 成立日期
address: 地址
person: 法人代表
status: 存續(xù)狀態(tài)
regCap: 注冊資本
scope: 經(jīng)營范圍
'''
js=re_get_js.findall(html)[1]
data=re_resultList.search(js)
if not data:
return
compant_list=json.loads(data.group(1))
retVal=[]
for x in compant_list:
regCap=x['regCap'].replace(',','')
if regCap[-1]=='萬':
regCap=regCap[:-1]
regCap=float(regCap)
address=x['domicile'].replace('<em>','').replace('</em>','')
temp_v={'pid':x['pid'],'bid':x['bid'],'name':x['titleName'],'type':x['entType'],'date':x['validityFrom'],\
'address':address,'person':x['legalPerson'],'status':x['openStatus'],'regCap':regCap,\
'scope':x['scope']}
retVal.append(temp_v)
return retVal
四、使用方法
直接將需要查詢的企業(yè)名稱傳入Get_company_info:
res=Get_company_info('江蘇蘇寧')
print(res)
結(jié)果:

需要注意的是:
返回的是字典構(gòu)成的數(shù)組,每個(gè)字典元素代表一家企業(yè)的信息。順序與瀏覽器中顯示的順序相同。字典中參數(shù)的含義已在_parse_baidu_company_info函數(shù)的注釋中說明。程序僅獲取第一頁的信息。如果要查詢多頁,可以修改源碼。程序僅獲取企業(yè)的基本信息,沒有進(jìn)入企業(yè)的具體頁面,如:蘇寧物流具體頁面。不過返回結(jié)果中的pid或bid應(yīng)該能用于構(gòu)造查詢頁面的URL。
最后再次強(qiáng)調(diào):代碼僅供學(xué)習(xí)參考,希望不要惡意爬取數(shù)據(jù)!
到此這篇關(guān)于詳解用Python爬蟲獲取百度企業(yè)信用中企業(yè)基本信息的文章就介紹到這了,更多相關(guān)Python爬蟲獲取百度企業(yè)信用內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
- python 爬取百度文庫并下載(免費(fèi)文章限定)
- Python實(shí)現(xiàn)的爬取百度文庫功能示例
- 用python下載百度文庫的代碼
- python 爬蟲如何實(shí)現(xiàn)百度翻譯
- Python爬蟲爬取百度搜索內(nèi)容代碼實(shí)例
- Python爬蟲實(shí)現(xiàn)百度翻譯功能過程詳解
- python 爬蟲百度地圖的信息界面的實(shí)現(xiàn)方法
- python爬蟲之爬取百度音樂的實(shí)現(xiàn)方法
- Python爬蟲實(shí)現(xiàn)爬取百度百科詞條功能實(shí)例
- python爬蟲獲取百度首頁內(nèi)容教學(xué)
- Python爬蟲實(shí)現(xiàn)百度圖片自動(dòng)下載
- Python爬蟲實(shí)例_利用百度地圖API批量獲取城市所有的POI點(diǎn)
- python實(shí)現(xiàn)百度文庫自動(dòng)化爬取
相關(guān)文章
Python實(shí)現(xiàn)生成日報(bào)的示例代碼
這篇文章主要為大家詳細(xì)介紹了如何利用Python實(shí)現(xiàn)生成日報(bào)的功能,文中的示例代碼講解詳細(xì),感興趣的小伙伴可以跟隨小編一起學(xué)習(xí)一下2023-06-06
python之tensorflow手把手實(shí)例講解貓狗識(shí)別實(shí)現(xiàn)
要說到深度學(xué)習(xí)圖像分類的經(jīng)典案例之一,那就是貓狗大戰(zhàn)了。貓和狗在外觀上的差別還是挺明顯的,無論是體型、四肢、臉龐和毛發(fā)等等, 都是能通過肉眼很容易區(qū)分的。那么如何讓機(jī)器來識(shí)別貓和狗呢?網(wǎng)上已經(jīng)有不少人寫過這案例了,我也來嘗試下練練手。2021-09-09
python使用OpenCV實(shí)現(xiàn)多目標(biāo)跟蹤
這篇文章主要介紹了python使用OpenCV實(shí)現(xiàn)多目標(biāo)跟蹤,如何在OpenCV中使用MultiTracker類實(shí)現(xiàn)多目標(biāo)跟蹤API。在深入了解詳細(xì)信息之前,請查看下面列出的關(guān)于目標(biāo)跟蹤的帖子,以了解在OpenCV中實(shí)現(xiàn)的單個(gè)目標(biāo)跟蹤器的基礎(chǔ)知識(shí),需要的朋友可以參考一下2022-04-04
PyQt6中自定義浮點(diǎn)型滑塊類的實(shí)現(xiàn)
在PyQt6中,滑塊是常用的用戶界面元素之一,用于選擇數(shù)值范圍,本文主要介紹了PyQt6中自定義浮點(diǎn)型滑塊類的實(shí)現(xiàn),具有一定的參考價(jià)值,感興趣的可以了解一下2024-03-03
Python3 Tkinter選擇路徑功能的實(shí)現(xiàn)方法
今天小編就為大家分享一篇Python3 Tkinter選擇路徑功能的實(shí)現(xiàn)方法,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-06-06

