如何利用Playwright庫進行電影網(wǎng)站數(shù)據(jù)的獲取
簡單概述
本系列可能是一個比較長的系列,主要是對《Python3網(wǎng)絡爬蟲開發(fā)實戰(zhàn)》前七章的一個內(nèi)容總結并且熟悉使用一下相關的框架與技術。
任務目標
爬取電影數(shù)據(jù)網(wǎng)站ssr1.scrape.center/, 此網(wǎng)站無反爬,數(shù)據(jù)通過服務端渲染,需要爬取的部分為列表頁里面的電影數(shù)據(jù)詳情。
任務目標解析
- 爬取ssr1.scrape.center/, 網(wǎng)站的列表頁面,通過列表頁面的內(nèi)容獲取到需要的URL
- 爬取ssr1.scrape.center/detail/{id}, 網(wǎng)站內(nèi)的數(shù)據(jù)詳情,需要獲取的部分有:
電影標題
電影圖片的url
電影上映時間
電影分類
電影評分
劇情簡介
- 將內(nèi)容存放到需要的數(shù)據(jù)庫中
技術選型與爬取
如何爬取
playwright庫是微軟開源的一個庫,這個庫的功能更加的強大,除了可以實現(xiàn)同步操作,同樣也可以實現(xiàn)異步的操作,這個庫可以說是現(xiàn)在功能最強大的庫也不為過,因為其還支持xpath,css選擇器等一些元素的選擇操作,甚至可以通過點擊鼠標進行操作,然后實現(xiàn)自動化構建代碼,整體的功能真的十分強大。
構建基礎的爬取函數(shù)
# 抓取網(wǎng)頁內(nèi)容
def scrape_page(page, url):
logging.info('scraping %s ...', url)
try:
page.goto(url)
page.wait_for_load_state('networkidle')
except:
logging.error('error occured while scraping %s', url, exc_info=True)對于網(wǎng)頁內(nèi)容的操作,我們只需要對頁面選項卡進行操作,傳入頁面選項卡對象和url鏈接實現(xiàn)我們想要完成的頁面請求,在這種請求下,我們通過等待網(wǎng)絡請求的響應情況來判斷頁面是否完全響應。
構建列表頁的爬取函數(shù)
這個部分只需要分析出最基礎的URL的頁碼規(guī)則就可以完成對頁面內(nèi)容的爬取,經(jīng)過分析我們可以發(fā)現(xiàn)https://ssr1.scrape.center/page/{page}可以發(fā)現(xiàn)變動的內(nèi)容在{page}部分,因此構建的抓取方式如下:
def scrape_index(page, page_index):
index_url = f'{BASE_URL}/page/{page_index}'
return scrape_page(page, index_url)構建詳情頁的爬取函數(shù)
詳情頁的爬取是建立在解析列表的基礎上獲得的,因此詳情頁爬取函數(shù)只需要知道url就可以直接調(diào)用基礎爬取函數(shù),而這里我們只需要對列表頁解析后就可以獲取到我們所需要的url,因此整體的構建方式如下:
def scrape_detail(page, url):
return scrape_page(page, url)如何解析
解析列表頁后獲取詳情頁的URL
快速便捷的選擇器讓我們通過一行代碼就獲取到我們所需要的標簽與屬性,十分方便的完成了我們需要獲取詳情頁的URL.
# 獲取解析內(nèi)容
def parse_index(page):
# 獲取網(wǎng)頁內(nèi)容請求
elements = page.query_selector_all('a.name')
# 獲取元素信息
for element in elements:
part_of_url = element.get_attribute('href')
detail_url = urljoin(BASE_URL, part_of_url)
logging.info('get url: %s', detail_url)
yield detail_url解析詳情頁獲取需要的數(shù)據(jù)
當詳情頁數(shù)據(jù)獲取到之后,對網(wǎng)頁內(nèi)的信息進行解析,實現(xiàn)對電影名稱,電影類別,圖片地址,劇情簡介以及評分的內(nèi)容獲?。?/p>
def parse_detail(page):
# 獲取標題
name = None
name_tag = page.query_selector('h2.m-b-sm')
if name_tag:
name = name_tag.text_content()
# 獲取圖片
cover = None
cover_tag = page.query_selector('img.cover')
if cover_tag:
cover = cover_tag.get_attribute('src')
# 獲取分類
categories = []
category_tags = page.query_selector_all('div.categories > button > span')
if category_tags:
categories = [category.text_content() for category in category_tags]
# 獲取評分
score = None
score_tag = page.query_selector('p.score')
if score_tag:
score = score_tag.text_content().strip()
# 劇情簡介
drama = None
drama_tag = page.query_selector('div.drama > p')
if drama_tag:
drama = drama_tag.text_content().strip()
return {
# 標題
'name': name,
# 圖片
'cover': cover,
# 分類
'categories': categories,
# 簡介
'drama': drama,
# 評分
'score': score
}如何存儲
本次存儲使用txt文本進行文件內(nèi)容的存儲,直接將文件內(nèi)容寫入一個txt文件當中。
# 數(shù)據(jù)內(nèi)容存儲
def save_data(data):
# 文件存放地址
data_path = '{0}/movies.txt'.format(RESULT_DIR)
# 進行文件寫入
with open(data_path, 'a+', encoding='utf-8') as file:
name = data.get('name', None)
cover = data.get('cover', None)
categories = data.get('categories', None)
drama = data.get('drama', None)
score = data.get('score', None)
file.write('name:'+name+'\n')
file.write('cover:'+cover+'\n')
file.write('categories:'+str(categories)+'\n')
file.write('drama:'+drama+'\n')
file.write('score:'+score+'\n')
file.write('='*50 + '\n')源代碼
import logging
from os import makedirs
from os.path import exists
from urllib.parse import urljoin
from playwright.sync_api import sync_playwright
logging.basicConfig(level=logging.INFO,
format='%(asctime)s - %(levelname)s: %(message)s')
#
BASE_URL = 'https://ssr1.scrape.center'
TOTAL_PAGE = 10
RESULT_DIR = 'results'
exists(RESULT_DIR) or makedirs(RESULT_DIR)
# 抓取網(wǎng)頁內(nèi)容
def scrape_page(page, url):
logging.info('scraping %s ...', url)
try:
page.goto(url)
page.wait_for_load_state('networkidle')
except:
logging.error('error occured while scraping %s', url, exc_info=True)
def scrape_index(page, page_index):
index_url = f'{BASE_URL}/page/{page_index}'
return scrape_page(page, index_url)
def scrape_detail(page, url):
return scrape_page(page, url)
# 獲取解析內(nèi)容
def parse_index(page):
# 獲取網(wǎng)頁內(nèi)容請求
elements = page.query_selector_all('a.name')
# 獲取元素信息
for element in elements:
part_of_url = element.get_attribute('href')
detail_url = urljoin(BASE_URL, part_of_url)
logging.info('get url: %s', detail_url)
yield detail_url
def parse_detail(page):
# 獲取標題
name = None
name_tag = page.query_selector('h2.m-b-sm')
if name_tag:
name = name_tag.text_content()
# 獲取圖片
cover = None
cover_tag = page.query_selector('img.cover')
if cover_tag:
cover = cover_tag.get_attribute('src')
# 獲取分類
categories = []
category_tags = page.query_selector_all('div.categories > button > span')
if category_tags:
categories = [category.text_content() for category in category_tags]
# 獲取評分
score = None
score_tag = page.query_selector('p.score')
if score_tag:
score = score_tag.text_content().strip()
# 劇情簡介
drama = None
drama_tag = page.query_selector('div.drama > p')
if drama_tag:
drama = drama_tag.text_content().strip()
return {
# 標題
'name': name,
# 圖片
'cover': cover,
# 分類
'categories': categories,
# 簡介
'drama': drama,
# 評分
'score': score
}
# 數(shù)據(jù)內(nèi)容存儲
def save_data(data):
# 文件存放地址
data_path = '{0}/movies.txt'.format(RESULT_DIR)
# 進行文件寫入
with open(data_path, 'a+', encoding='utf-8') as file:
name = data.get('name', None)
cover = data.get('cover', None)
categories = data.get('categories', None)
drama = data.get('drama', None)
score = data.get('score', None)
file.write('name:'+name+'\n')
file.write('cover:'+cover+'\n')
file.write('categories:'+str(categories)+'\n')
file.write('drama:'+drama+'\n')
file.write('score:'+score+'\n')
file.write('='*50 + '\n')
def main():
with sync_playwright() as p:
browser = p.chromium.launch(headless=False)
page = browser.new_page()
for page_index in range(1, TOTAL_PAGE + 1):
scrape_index(page, page_index)
detail_urls = list(parse_index(page))
for detail_url in detail_urls:
scrape_detail(page, detail_url)
data = parse_detail(page)
logging.info('get data: %s', data)
save_data(data)
browser.close()
if __name__ == '__main__':
main()版權信息
本文由PorterZhang整理或寫作完成
本人的Github: PorterZhang2021
本人的博客地址:PorterZhang
到此這篇關于如何利用Playwright庫進行電影網(wǎng)站數(shù)據(jù)的獲取的文章就介紹到這了,更多相關Playwright庫電影網(wǎng)站數(shù)據(jù)的獲取內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
自定義Django_rest_framework_jwt登陸錯誤返回的解決
這篇文章主要介紹了自定義Django_rest_framework_jwt登陸錯誤返回的解決,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2020-10-10
Python數(shù)字圖像處理之霍夫線變換實現(xiàn)詳解
這篇文章主要介紹了Python數(shù)字圖像處理之霍夫線變換實現(xiàn)詳解,具有一定借鑒價值,需要的朋友可以參考下2018-01-01
用Python和MD5實現(xiàn)網(wǎng)站掛馬檢測程序
系統(tǒng)管理員通常從svn/git中檢索代碼,部署站點后通常首先會生成該站點所有文件的MD5值,如果上線后網(wǎng)站頁面內(nèi)容被篡改(如掛馬)等,可以比對之前生成MD5值快速查找去那些文件被更改,為了使系統(tǒng)管理員第一時間發(fā)現(xiàn),可結合crontab或nagios等工具2014-03-03

