Python3爬蟲全國地址信息
PHP方式寫的一團(tuán)糟所以就用python3重寫了一遍,所以因?yàn)榈诙螌懥耍悸芬哺逦诵?/p>
提醒:可能會(huì)有502的錯(cuò)誤,所以做了異常以及數(shù)據(jù)庫事務(wù)處理,暫時(shí)沒有想到更好的優(yōu)化方法,所以就先這樣吧。待更懂python再進(jìn)一步優(yōu)化哈
歡迎留言賜教~
#!C:\Users\12550\AppData\Local\Programs\Python\Python37\python.exe
# -*- coding: utf-8 -*-
from urllib.request import urlopen
from bs4 import BeautifulSoup
import pymysql
import urllib.request
import re
from urllib.error import URLError, HTTPError
conn = pymysql.connect(host='127.0.0.1', user='root', passwd='root', db='test', charset='utf8')
db = conn.cursor()
curr_url = ''
# 請求網(wǎng)頁
def get_html(url):
global curr_url
user_agent = 'Mozilla/6.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.6796.99 Safari/537.36'
response = urllib.request.Request(url)
response.add_header('User-Agent', user_agent)
response = urllib.request.urlopen(response)
html = BeautifulSoup(response.read(), "html.parser", from_encoding='gbk')
return html
def get_list(url, level=1, pid=0, get_level=2):
data = [];
level_arr = {'1': 'provincetr', '2': 'citytr', '3': 'countytr', '4': 'towntr', '5': 'villagetr'}
try:
print(url)
html = get_html(url)
c_url = url
tr_list = html.findAll('tr', {'class': level_arr[str(level)]})
for tr in tr_list:
region_name, href, page = '', '', ''
td_list = tr.findAll('td')
for td in td_list:
region_name = td.get_text();
# 判斷是否存在該省份
if (level == 1):
sql = "select * from region where region_name='" + region_name + "'"
db.execute(sql)
exist = db.fetchone()
if(exist):
continue
# 判斷是否全數(shù)字-非法則跳過
if (region_name.isdigit()):
continue
if (region_name):
sql = "insert into region(region_name,pid,level,url) value('" + region_name + "','" + str(
pid) + "','" + str(level) + "','" + url + "')"
db.execute(sql)
db.execute('SELECT LAST_INSERT_ID();')
last_id = db.fetchone()[0]
if (td.a):
page = td.a.attrs['href']
pattern = re.compile(r'\w*.html')
url = re.sub(pattern, page, c_url)
if (level <= get_level):
get_list(url, level + 1, last_id)
# 每個(gè)省份執(zhí)行完成,則提交
if (level == 1):
conn.commit()
return data;
except HTTPError as e:
# 如果有出錯(cuò),則回滾
conn.rollback()
print(e) # HTTP Error 502: Proxy Error
url = 'http://www.stats.gov.cn/tjsj/tjbz/tjyqhdmhcxhfdm/2017/index.html'
get_list(url)
print('執(zhí)行完成')
總結(jié)
以上就是這篇文章的全部內(nèi)容了,希望本文的內(nèi)容對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,謝謝大家對腳本之家的支持。如果你想了解更多相關(guān)內(nèi)容請查看下面相關(guān)鏈接
相關(guān)文章
用Python程序抓取網(wǎng)頁的HTML信息的一個(gè)小實(shí)例
這篇文章主要介紹了用Python程序抓取網(wǎng)頁的HTML信息的一個(gè)小實(shí)例,用到的方法同時(shí)也是用Python編寫爬蟲的基礎(chǔ),需要的朋友可以參考下2015-05-05
python神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)使用Keras進(jìn)行簡單分類
這篇文章主要為大家介紹了python神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)使用Keras進(jìn)行簡單分類,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2022-05-05
使用C#配合ArcGIS Engine進(jìn)行地理信息系統(tǒng)開發(fā)
這篇文章主要介紹了使用C#配合ArcGIS Engine進(jìn)行地理信息系統(tǒng)開發(fā),ArcGIS Engine是Windows系統(tǒng)上可以讓程序員創(chuàng)建自定義的GIS桌面程序,需要的朋友可以參考下2016-02-02

