Python插入Elasticsearch操作方法解析
這篇文章主要介紹了Python插入Elasticsearch操作方法解析,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
在用scrapy做爬蟲的時(shí)候,需要將數(shù)據(jù)存入的es中。網(wǎng)上找了兩種方法,照葫蘆畫瓢也能出來,暫記下來:
首先安裝了es,版本是5.6.1的較早版本
用pip安裝與es版本相對(duì)的es相關(guān)包
pip install elasticsearch-dsl==5.1.0
方法一:
以下是pipelines.py模塊的完整代碼
# -*- coding: utf-8 -*-
# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: https://docs.scrapy.org/en/latest/topics/item-pipeline.html
import chardet
class SinafinancespiderPipeline(object):
def process_item(self, item, spider):
return item
# 寫入到es中,需要在settings中啟用這個(gè)類 ExchangeratespiderESPipeline
# 需要安裝pip install elasticsearch-dsl==5.1.0 注意與es版本需要對(duì)應(yīng)
from elasticsearch_dsl import Date,Nested,Boolean,analyzer,Completion,Keyword,Text,Integer,DocType
from elasticsearch_dsl.connections import connections
connections.create_connection(hosts=['192.168.52.138'])
from elasticsearch import Elasticsearch
es = Elasticsearch()
class AticleType(DocType):
page_from = Keyword()
# domain報(bào)錯(cuò)
domain=Keyword()
cra_url=Keyword()
spider = Keyword()
cra_time = Keyword()
page_release_time = Keyword()
page_title = Text(analyzer="ik_max_word")
page_content = Text(analyzer="ik_max_word")
class Meta:
index = "scrapy"
doc_type = "sinafinance"
# 以下settings和mappings都沒起作用,暫且記下
settings = {
"number_of_shards": 3,
}
mappings = {
'_id':{'path':'cra_url'}
}
class ExchangeratespiderESPipeline(DocType):
from elasticsearch5 import Elasticsearch
ES = ['192.168.52.138:9200']
es = Elasticsearch(ES,sniff_on_start=True)
def process_item(self, item, spider):
spider.logger.info("-----enter into insert ES")
article = AticleType()
article.page_from=item['page_from']
article.domain=item['domain']
article.cra_url =item['cra_url']
article.spider =item['spider']
article.cra_time =item['cra_time']
article.page_release_time =item['page_release_time']
article.page_title =item['page_title']
article.page_content =item['page_content']
article.save()
return item
以上方法能將數(shù)據(jù)寫入es,但是如果重復(fù)爬取的話,會(huì)重復(fù)插入數(shù)據(jù),因?yàn)?主鍵 ”_id” 是ES自己產(chǎn)生的,找不到自定義_id的入口。于是放棄。
方法二:實(shí)現(xiàn)自定義主鍵寫入,覆蓋插入
# -*- coding: utf-8 -*-
# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: https://docs.scrapy.org/en/latest/topics/item-pipeline.html
from elasticsearch5 import Elasticsearch
class SinafinancespiderPipeline(object):
def process_item(self, item, spider):
return item
# 寫入到es中,需要在settings中啟用這個(gè)類 ExchangeratespiderESPipeline
# 需要安裝pip install elasticsearch-dsl==5.1.0 注意與es版本需要對(duì)應(yīng)
class SinafinancespiderESPipeline():
def __init__(self):
self.ES = ['192.168.52.138:9200']
# 創(chuàng)建es客戶端
self.es = Elasticsearch(
self.ES,
# 啟動(dòng)前嗅探es集群服務(wù)器
sniff_on_start=True,
# es集群服務(wù)器結(jié)點(diǎn)連接異常時(shí)是否刷新es結(jié)點(diǎn)信息
sniff_on_connection_fail=True,
# 每60秒刷新節(jié)點(diǎn)信息
sniffer_timeout=60
)
def process_item(self, item, spider):
spider.logger.info("-----enter into insert ES")
doc = {
'page_from': item['page_from'],
'domain': item['domain'],
'spider': item['spider'],
'page_release_time': item['page_release_time'],
'page_title': item['page_title'],
'page_content': item['page_content'],
'cra_url': item['cra_url'],
'cra_time': item['cra_time']
}
self.es.index(index='scrapy', doc_type='sinafinance', body=doc, id=item['cra_url'])
return item
搜索數(shù)據(jù)的方法:
# 字典形式設(shè)置body
query = {
'query': {
'bool': {
'must': [
{'match': {'_all': 'python web'}}
],
'filter': [
{'term': {'status': 2}}
]
}
}
}
ret = es.search(index='articles', doc_type='article', body=query)
# 查詢數(shù)據(jù)
data = es.search(index='articles', doc_type='article', body=body)
print(data)
# 增加
es.index(...)
# 修改
es.update(...)
# 刪除
es.delete()
完成后
在settings.py模塊中注冊(cè)自定義的類
ITEM_PIPELINES = {
# 'sinafinancespider.pipelines.SinafinancespiderPipeline': 300,
'sinafinancespider.pipelines.SinafinancespiderESPipeline': 300,
}
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
python使用openpyxl庫(kù)讀取Excel文件數(shù)據(jù)
openpyxl是一個(gè)功能強(qiáng)大的庫(kù),可以輕松地實(shí)現(xiàn)Excel文件的讀寫操作,本文將介紹如何使用openpyxl庫(kù)讀取Excel文件中的數(shù)據(jù),感興趣的小伙伴可以了解下2023-11-11
利用Python實(shí)現(xiàn)普通視頻變成動(dòng)漫視頻
這篇文章主要為大家詳細(xì)介紹了如何利用Python語言實(shí)現(xiàn)普通視頻變成動(dòng)漫視頻效果,文中的示例代碼講解詳細(xì),感興趣的小伙伴可以了解一下2022-08-08
使用 setuptools 在 Python 中安裝 egg 
Eggs 是 Python 中以前使用的一種分發(fā)格式,它包含特定項(xiàng)目所需的信息,從依賴項(xiàng)到環(huán)境變量,在本文中,我們將討論如何在 Python 中安裝 egg 文件,以及可用于實(shí)現(xiàn)此操作的工具,感興趣的朋友一起看看吧2023-08-08
Keras在mnist上的CNN實(shí)踐,并且自定義loss函數(shù)曲線圖操作
這篇文章主要介紹了Keras在mnist上的CNN實(shí)踐,并且自定義loss函數(shù)曲線圖操作,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。2021-05-05
Python?matplotlib實(shí)戰(zhàn)之氣泡圖繪制
氣泡圖是一種多變量的統(tǒng)計(jì)圖表,可以看作是散點(diǎn)圖的變形,這篇文章主要為大家介紹了如何使用Matplotlib繪制氣泡圖,需要的小伙伴可以參考下2023-08-08
python通過第三方庫(kù)操作PDF文件的幾種常見方法
Python是一種高級(jí)編程語言,主要用于數(shù)據(jù)分析、機(jī)器學(xué)習(xí)、圖像處理等領(lǐng)域,在PDF文件處理方面,Python有許多強(qiáng)大的庫(kù)和工具,這篇文章主要給大家介紹了關(guān)于python通過第三方庫(kù)操作PDF文件的幾種常見方法,需要的朋友可以參考下2024-02-02
Python中使用第三方庫(kù)xlrd來讀取Excel示例
這篇文章主要介紹了Python中使用第三方庫(kù)xlrd來讀取Excel示例,本文講解了安裝xlrd、xlrd的API、使用xlrd讀取Excel代碼示例,需要的朋友可以參考下2015-04-04

