python爬取新聞門戶網(wǎng)站的示例
項(xiàng)目地址:
https://github.com/Python3Spiders/AllNewsSpider
如何使用
每個(gè)文件夾下的代碼就是對(duì)應(yīng)平臺(tái)的新聞爬蟲
- py 文件直接運(yùn)行
- pyd 文件需要,假設(shè)為 pengpai_news_spider.pyd
將 pyd 文件下載到本地,新建項(xiàng)目,把 pyd 文件放進(jìn)去
項(xiàng)目根目錄下新建 runner.py,寫入以下代碼即可運(yùn)行并抓取
import pengpai_news_spider pengpai_news_spider.main()
示例代碼
百度新聞
# -*- coding: utf-8 -*-
# 文件備注信息 如果遇到打不開的情況,可以先在瀏覽器打開一下百度搜索引擎
import requests
from datetime import datetime, timedelta
from lxml import etree
import csv
import os
from time import sleep
from random import randint
def parseTime(unformatedTime):
if '分鐘' in unformatedTime:
minute = unformatedTime[:unformatedTime.find('分鐘')]
minute = timedelta(minutes=int(minute))
return (datetime.now() -
minute).strftime('%Y-%m-%d %H:%M')
elif '小時(shí)' in unformatedTime:
hour = unformatedTime[:unformatedTime.find('小時(shí)')]
hour = timedelta(hours=int(hour))
return (datetime.now() -
hour).strftime('%Y-%m-%d %H:%M')
else:
return unformatedTime
def dealHtml(html):
results = html.xpath('//div[@class="result-op c-container xpath-log new-pmd"]')
saveData = []
for result in results:
title = result.xpath('.//h3/a')[0]
title = title.xpath('string(.)').strip()
summary = result.xpath('.//span[@class="c-font-normal c-color-text"]')[0]
summary = summary.xpath('string(.)').strip()
# ./ 是直接下級(jí),.// 是直接/間接下級(jí)
infos = result.xpath('.//div[@class="news-source"]')[0]
source, dateTime = infos.xpath(".//span[last()-1]/text()")[0], \
infos.xpath(".//span[last()]/text()")[0]
dateTime = parseTime(dateTime)
print('標(biāo)題', title)
print('來源', source)
print('時(shí)間', dateTime)
print('概要', summary)
print('\n')
saveData.append({
'title': title,
'source': source,
'time': dateTime,
'summary': summary
})
with open(fileName, 'a+', encoding='utf-8-sig', newline='') as f:
writer = csv.writer(f)
for row in saveData:
writer.writerow([row['title'], row['source'], row['time'], row['summary']])
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36',
'Referer': 'https://www.baidu.com/s?rtt=1&bsst=1&cl=2&tn=news&word=%B0%D9%B6%C8%D0%C2%CE%C5&fr=zhidao'
}
url = 'https://www.baidu.com/s'
params = {
'ie': 'utf-8',
'medium': 0,
# rtt=4 按時(shí)間排序 rtt=1 按焦點(diǎn)排序
'rtt': 1,
'bsst': 1,
'rsv_dl': 'news_t_sk',
'cl': 2,
'tn': 'news',
'rsv_bp': 1,
'oq': '',
'rsv_btype': 't',
'f': 8,
}
def doSpider(keyword, sortBy = 'focus'):
'''
:param keyword: 搜索關(guān)鍵詞
:param sortBy: 排序規(guī)則,可選:focus(按焦點(diǎn)排序),time(按時(shí)間排序),默認(rèn) focus
:return:
'''
global fileName
fileName = '{}.csv'.format(keyword)
if not os.path.exists(fileName):
with open(fileName, 'w+', encoding='utf-8-sig', newline='') as f:
writer = csv.writer(f)
writer.writerow(['title', 'source', 'time', 'summary'])
params['wd'] = keyword
if sortBy == 'time':
params['rtt'] = 4
response = requests.get(url=url, params=params, headers=headers)
html = etree.HTML(response.text)
dealHtml(html)
total = html.xpath('//div[@id="header_top_bar"]/span/text()')[0]
total = total.replace(',', '')
total = int(total[7:-1])
pageNum = total // 10
for page in range(1, pageNum):
print('第 {} 頁\n\n'.format(page))
headers['Referer'] = response.url
params['pn'] = page * 10
response = requests.get(url=url, headers=headers, params=params)
html = etree.HTML(response.text)
dealHtml(html)
sleep(randint(2, 4))
...
if __name__ == "__main__":
doSpider(keyword = '馬保國', sortBy='focus')
以上就是python爬取新聞門戶網(wǎng)站的示例的詳細(xì)內(nèi)容,更多關(guān)于python爬取新聞門戶網(wǎng)站的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!
- python 爬取壁紙網(wǎng)站的示例
- Python爬取網(wǎng)站圖片并保存的實(shí)現(xiàn)示例
- Python爬蟲設(shè)置Cookie解決網(wǎng)站攔截并爬取螞蟻短租的問題
- python 多線程爬取壁紙網(wǎng)站的示例
- python爬蟲爬取某網(wǎng)站視頻的示例代碼
- python爬蟲實(shí)現(xiàn)爬取同一個(gè)網(wǎng)站的多頁數(shù)據(jù)的實(shí)例講解
- sql coalesce函數(shù)的具體使用
- python 爬取免費(fèi)簡(jiǎn)歷模板網(wǎng)站的示例
- Python3 實(shí)現(xiàn)爬取網(wǎng)站下所有URL方式
- 使用python爬取taptap網(wǎng)站游戲截圖的步驟
相關(guān)文章
Pytorch: 自定義網(wǎng)絡(luò)層實(shí)例
今天小編就為大家分享一篇Pytorch: 自定義網(wǎng)絡(luò)層實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2020-01-01
Python實(shí)現(xiàn)合并與拆分多個(gè)PDF文檔中的指定頁
這篇文章主要為大家詳細(xì)介紹了如何使用Python實(shí)現(xiàn)將多個(gè)PDF文檔中的指定頁合并生成新的PDF以及拆分PDF,感興趣的小伙伴可以參考一下2025-03-03
在實(shí)驗(yàn)中需要自己構(gòu)造單獨(dú)的HTTP數(shù)據(jù)報(bào)文,而使用SOCK_STREAM進(jìn)行發(fā)送數(shù)據(jù)包,需要進(jìn)行完整的TCP交互。因此想使用原始套接字進(jìn)行編程,直接構(gòu)造數(shù)據(jù)包,并在IP層進(jìn)行發(fā)送,即采用SOCK_RAW進(jìn)行數(shù)據(jù)發(fā)送。使用SOCK_RAW的優(yōu)勢(shì)是,可以對(duì)數(shù)據(jù)包進(jìn)行完整的修改,可以處理IP層上的所有數(shù)據(jù)包,對(duì)各字段進(jìn)行修改,而不受UDP和TCP的限制。2014-02-02
PyTorch CNN實(shí)戰(zhàn)之MNIST手寫數(shù)字識(shí)別示例
本篇文章主要介紹了PyTorch CNN實(shí)戰(zhàn)之MNIST手寫數(shù)字識(shí)別示例,小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過來看看吧2018-05-05
Python學(xué)習(xí)之Anaconda的使用與配置方法
我在學(xué)習(xí)Python的爬蟲框架中看到看到了anaconda的介紹,簡(jiǎn)直是相見恨晚啊,我覺的每個(gè)Python的學(xué)習(xí)網(wǎng)站上首先都應(yīng)該使用anaconda來進(jìn)行教程,因?yàn)樵趯?shí)踐的過程中光環(huán)境的各種報(bào)錯(cuò)就能消磨掉你所有的學(xué)習(xí)興趣2018-01-01
Python之多線程退出與停止的一種實(shí)現(xiàn)思路
這篇文章主要介紹了Python之多線程退出與停止的一種實(shí)現(xiàn)思路,具有很好的參考價(jià)值,希望對(duì)大家有所幫助,如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2024-02-02

