Scrapy框架爬取Boss直聘網(wǎng)Python職位信息的源碼
分析
使用CrawlSpider結(jié)合LinkExtractor和Rule爬取網(wǎng)頁信息
LinkExtractor用于定義鏈接提取規(guī)則,一般使用allow參數(shù)即可
LinkExtractor(allow=(), # 使用正則定義提取規(guī)則
deny=(), # 排除規(guī)則
allow_domains=(), # 限定域名范圍
deny_domains=(), # 排除域名范圍
restrict_xpaths=(), # 使用xpath定義提取隊則
tags=('a', 'area'),
attrs=('href',),
canonicalize=False,
unique=True,
process_value=None,
deny_extensions=None,
restrict_css=(), # 使用css選擇器定義提取規(guī)則
strip=True):
Rule用于定義CrawlSpider的爬取規(guī)則,由Spider內(nèi)部自動識別,提交請求、獲取響應,交給callback指定的回調(diào)方法處理response
如果指定了callback,參數(shù)follow默認為False;如果callback為None,follow默認為True
Rule(link_extractor, # LinkExtractor對象,必選參數(shù) callback=None, # 回調(diào)方法,可選 cb_kwargs=None, follow=None, # 是否進行深度爬取,True、False process_links=None, # 用于處理鏈接(有些反爬策略是返回假的url) process_request=identity)
源碼
items.py
class BosszhipinItem(scrapy.Item): """Boss直聘Pytho職位爬蟲Item""" # 職位名稱 position=scrapy.Field() # 公司名稱 company=scrapy.Field() # 薪資 salary=scrapy.Field() # 工作地點 location=scrapy.Field() # 學歷要求 education=scrapy.Field() # 工作時間 year=scrapy.Field()
spiders/bosszhipin_spider.py
# !/usr/bin/env python
# -*- coding:utf-8 -*-
import scrapy
from scrapy.spider import CrawlSpider,Rule
from scrapy.linkextractors import LinkExtractor
from myscrapy.items import BosszhipinItem
class BosszhipinSpider(CrawlSpider):
"""
Boss直聘Python職位爬蟲Spider
使用CrawlSpider基類實現(xiàn)
"""
name = 'bosszhipin'
allowed_domains=['zhipin.com',]
start_urls=['http://www.zhipin.com/c100010000/h_100010000/?query=Python&page=1',]
# 鏈接提取器對象(規(guī)定鏈接提取規(guī)則)
link_extractor=LinkExtractor(allow=(r'page=\d+'))
# 鏈接提取規(guī)則對象列表
# 自動調(diào)用callback指定的方法,去取爬取由link_extractor指定的鏈接提取規(guī)則匹配到的url
# 原理:link_extractor.extract_links(response)返回匹配到的鏈接
rules = [
Rule(link_extractor=link_extractor,callback='parse_page',follow=True),
]
def parse_page(self,response):
"""定義回調(diào)方法,用于解析每個response對象"""
job_list=response.xpath('//div[@class="job-list"]//li')
for job in job_list:
position = job.xpath('.//div[@class="info-primary"]//h3[@class="name"]/a/text()')[0].extract()
salary =job.xpath('.//div[@class="info-primary"]//h3[@class="name"]//span/text()')[0].extract()
company =job.xpath('.//div[@class="company-text"]//a/text()')[0].extract()
location =job.xpath('.//div[@class="info-primary"]/p/text()[1]')[0].extract()
year =job.xpath('.//div[@class="info-primary"]/p/text()[2]')[0].extract()
education =job.xpath('.//div[@class="info-primary"]/p/text()[3]')[0].extract()
item=BosszhipinItem()
item['position']=position
item['salary']=salary
item['company']=company
item['location']=location
item['year']=year
item['education']=education
yield item
pipelines.py
class BosszhipinPipeline(object):
"""Boss直聘Python職位爬蟲Item Pipeline"""
def __init__(self):
self.f=open('data/bosszhipin.json',mode='wb')
self.f.write(b'[')
def process_item(self,item,spider):
data=json.dumps(dict(item),ensure_ascii=False,indent=4)
self.f.write(data.encode('utf-8'))
self.f.write(b',')
return item
def close_spider(self,spider):
self.f.write(b']')
self.f.close()
settings.py
ITEM_PIPELINES = {
'myscrapy.pipelines.BosszhipinPipeline': 1,
}
運行結(jié)果

總結(jié)
以上就是這篇文章的全部內(nèi)容了,希望本文的內(nèi)容對大家的學習或者工作具有一定的參考學習價值,謝謝大家對腳本之家的支持。如果你想了解更多相關(guān)內(nèi)容請查看下面相關(guān)鏈接
- Python爬蟲Scrapy框架CrawlSpider原理及使用案例
- 簡述python Scrapy框架
- 詳解Python的爬蟲框架 Scrapy
- Python爬蟲實例——scrapy框架爬取拉勾網(wǎng)招聘信息
- Python Scrapy框架:通用爬蟲之CrawlSpider用法簡單示例
- Python Scrapy框架第一個入門程序示例
- python3 Scrapy爬蟲框架ip代理配置的方法
- Python利用Scrapy框架爬取豆瓣電影示例
- 詳解Python網(wǎng)絡(luò)框架Django和Scrapy安裝指南
- Python3爬蟲爬取英雄聯(lián)盟高清桌面壁紙功能示例【基于Scrapy框架】
- python Scrapy框架原理解析
相關(guān)文章
Python+OpenCV實現(xiàn)邊緣檢測與角點檢測詳解
這篇文章主要為大家詳細介紹了如何通過Python+OpenCV實現(xiàn)邊緣檢測與角點檢測,文中的示例代碼講解詳細,對我們學習Python與OpenCV有一定的幫助,需要的可以參考一下2023-02-02
Matplotlib scatter繪制散點圖的方法實現(xiàn)
這篇文章主要介紹了Matplotlib scatter繪制散點圖的方法實現(xiàn),文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2020-01-01
django模板結(jié)構(gòu)優(yōu)化的方法
這篇文章主要介紹了django模板結(jié)構(gòu)優(yōu)化的方法,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2019-02-02
Python將大量遙感數(shù)據(jù)的值縮放指定倍數(shù)的方法(推薦)
本文介紹基于Python中的gdal模塊,批量讀取大量多波段遙感影像文件,分別對各波段數(shù)據(jù)加以數(shù)值處理,并將所得處理后數(shù)據(jù)保存為新的遙感影像文件的方法,感興趣的朋友一起看看吧2025-01-01

