簡述python Scrapy框架
一、Scrapy框架簡介
Scrapy是用純Python實現(xiàn)一個為了爬取網(wǎng)站數(shù)據(jù),提取結(jié)構(gòu)性數(shù)據(jù)而編寫的應(yīng)用框架,用途非常廣泛。利用框架,用戶只需要定制開發(fā)幾個模塊就可以輕松的實現(xiàn)一個爬蟲,用來抓取網(wǎng)頁內(nèi)容以及各種圖片,非常的方便。它使用Twisted這個異步網(wǎng)絡(luò)庫來處理網(wǎng)絡(luò)通訊,架構(gòu)清晰,并且包含了各種中間件接口,可以靈活的完成各種需求。Scrapy是Python世界里面最強大的爬蟲框架,它比BeautifulSoup更加完善,BeautifulSoup可以說是輪子,而Scrapy則是車子,不需要關(guān)注太多的細節(jié)。
二、Scrapy原理
1.ScrapyEngine(引擎):負責Spider、ItemPipeline、Downloader、Scheduler中間的通訊,信號數(shù)據(jù)傳遞等。
2.Scheduler(調(diào)度器):它負責接受引擎發(fā)送過來的request請求,并按照定的方式進行整理排列,入隊,當引擎需要時,交還給引擎。
3.Downloader(下載器):負責下載ScrapyEngine發(fā)送的所有requests請求,并將其獲取到的responses交還給ScrapyEngine,由引擎交給Spider來處理。
4.Spider(爬蟲):它負責處理所有Responses,從中分析提取數(shù)據(jù),獲取ltem字段需要的數(shù)據(jù),并將需要跟進的URL提交給引擎,再次進入Scheduler。
5.ItemPipeline(管道):它負責處理Spider中獲取到的ltem,并進行進行后期處理,詳細分析,過濾,存儲等的地方。
6.DownloaderMiddlewares(下載中間件):它是一個可以自定義擴展下載功能的組件。
7.SpiderMiddlewares(Spider中間件):它是一個可以自定擴展和操作引擎和Spider中間通信的功能組件比如進入Spider的Responses,和從Spider出去的Requests。
三、創(chuàng)建Scrapy項目
新建項目命令:
scrapy startproject xxx
在開始爬取之前,必須創(chuàng)建一個新的Scrapy項目。進入自定義的項目目錄中,運行下列命令:
scrapy startproject xxx
其中,xxx為項目名稱,可以看到將會創(chuàng)建一個xxx文件夾,目錄結(jié)構(gòu)大致如下:

四、創(chuàng)建爬蟲
創(chuàng)建爬蟲的命令:
scrapy genspider 爬蟲名字網(wǎng)站域名
應(yīng)當注意的是爬蟲名字不要和項目名字一-樣,網(wǎng)站域名是允許爬蟲采集的域名如,baidu. com,zhihu. com。創(chuàng)建后python文件如下:

五、總結(jié)
Scrapy框架相當于一輛造好的車子,只要我們會開,我們就可以利用這輛車子去到任意想去的地方。通常我們使用的request的方法就相當于在出發(fā)前再去造一輛車子,這是相當麻煩的。學(xué)好Scrapy,對于網(wǎng)上80%的網(wǎng)站我們都可以進行爬取。
以上就是簡述python Scrapy框架的詳細內(nèi)容,更多關(guān)于python Scrapy框架的資料請關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
Python實現(xiàn)的讀取/更改/寫入xml文件操作示例
這篇文章主要介紹了Python實現(xiàn)的讀取/更改/寫入xml文件操作,涉及Python針對xml文件的讀取、節(jié)點操作、寫入等相關(guān)實現(xiàn)技巧,需要的朋友可以參考下2018-08-08
Python?Numpy布爾數(shù)組在數(shù)據(jù)分析中的應(yīng)用小結(jié)
本文深入探討了Python的Numpy庫中的布爾數(shù)組功能,介紹了布爾運算、布爾索引的使用方法,并通過示例展示了如何在數(shù)據(jù)分析中利用布爾數(shù)組進行數(shù)據(jù)篩選和處理,感興趣的朋友一起看看吧2024-09-09
Python實現(xiàn)按照指定要求逆序輸出一個數(shù)字的方法
這篇文章主要介紹了Python實現(xiàn)按照指定要求逆序輸出一個數(shù)字的方法,涉及Python針對字符串的遍歷、判斷、輸出等相關(guān)操作技巧,需要的朋友可以參考下2018-04-04
使用Python中的cookielib模擬登錄網(wǎng)站
這篇文章主要介紹了使用Python中的cookielib模擬登錄網(wǎng)站,用作生成cookie然后登錄,需要的朋友可以參考下2015-04-04
python Selenium爬取內(nèi)容并存儲至MySQL數(shù)據(jù)庫的實現(xiàn)代碼
這篇文章主要介紹了python Selenium爬取內(nèi)容并存儲至MySQL數(shù)據(jù)庫的實現(xiàn)代碼,需要的朋友可以參考下2017-03-03

