Python環(huán)境下安裝使用異步任務(wù)隊列包Celery的基礎(chǔ)教程
1.簡介
celery(芹菜)是一個異步任務(wù)隊列/基于分布式消息傳遞的作業(yè)隊列。它側(cè)重于實時操作,但對調(diào)度支持也很好。
celery用于生產(chǎn)系統(tǒng)每天處理數(shù)以百萬計的任務(wù)。
celery是用Python編寫的,但該協(xié)議可以在任何語言實現(xiàn)。它也可以與其他語言通過webhooks實現(xiàn)。
建議的消息代理RabbitMQ的,但提供有限支持Redis, Beanstalk, MongoDB, CouchDB, ,和數(shù)據(jù)庫(使用SQLAlchemy的或Django的 ORM) 。
celery是易于集成Django, Pylons and Flask,使用 django-celery, celery-pylons and Flask-Celery 附加包即可。
2. 安裝
有了上面的概念,需要安裝這么幾個東西:RabbitMQ、SQLAlchemy、Celery
安裝方式也都很簡單: RabbitMQ:
mac下:
brew install rabbitmq
linux:
sudo apt-get install rabbitmq-server
剩下兩個都是Python的東西了,直接pip安裝就好了,對于從來沒有安裝過MySQL驅(qū)動的同學(xué)可能需要安裝MySQL-python。
安裝完成之后,啟動服務(wù):
$ rabbitmq-server[回車]
啟動后不要關(guān)閉窗口, 下面操作新建窗口(Tab)
3. 簡單案例
確保你之前的RabbitMQ已經(jīng)啟動。
還是官網(wǎng)的那個例子,在任意目錄新建一個tasks.py的文件,內(nèi)容如下:
from celery import Celery
app = Celery('tasks', broker='amqp://guest@localhost//')
@app.task
def add(x, y):
return x + y
在同級目錄執(zhí)行:
$ celery -A tasks worker --loglevel=info
該命令的意思是啟動一個worker,把tasks中的任務(wù)(add(x,y))把任務(wù)放到隊列中。
保持窗口打開,新開一個窗口進入交互模式,python或者ipython:
>>> from tasks import add >>> add.delay(4, 4)
到此為止,你已經(jīng)可以使用celery執(zhí)行任務(wù)了,上面的python交互模式下簡單的調(diào)用了add任務(wù),并傳遞4,4參數(shù)。
但此時有一個問題,你突然想知道這個任務(wù)的執(zhí)行結(jié)果和狀態(tài),到底完了沒有。因此就需要設(shè)置backend了。
修改之前的tasks.py中的代碼為:
# coding:utf-8
import subprocess
from time import sleep
from celery import Celery
backend = 'db+mysql://root:@192.168.0.102/celery'
broker = 'amqp://guest@192.168.0.102:5672'
app = Celery('tasks', backend=backend, broker=broker)
@app.task
def add(x, y):
sleep(10)
return x + y
@app.task
def hostname():
return subprocess.check_output(['hostname'])
除了添加backend之外,上面還添加了一個who的方法用來測試多服務(wù)器操作。修改完成之后,還是按照之前的方式啟動。
同樣進入python的交互模型:
>>> from tasks import add, hostname >>> r = add.delay(4, 4) >>> r.ready() # 10s內(nèi)執(zhí)行,會輸出False,因為add中sleep了10s >>> >>> r = hostname.delay() >>> r.result # 輸出你的hostname
4. 測試多服務(wù)器
做完上面的測試之后,產(chǎn)生了一個疑惑,Celery叫做分布式任務(wù)管理,那它的分布式體現(xiàn)在哪?它的任務(wù)都是怎么執(zhí)行的?在哪個機器上執(zhí)行的?
在當(dāng)前服務(wù)器上的celery服務(wù)不關(guān)閉的情況下,按照同樣的方式在另外一臺服務(wù)器上安裝Celery,并啟動:
$ celery -A tasks worker --loglevel=info
發(fā)現(xiàn)前一個服務(wù)器的Celery服務(wù)中輸出你剛啟動的服務(wù)器的hostname,前提是那臺服務(wù)器連上了你的rabbitmq。
然后再進入python交互模式:
>>> from tasks import hostname >>> >>> for i in range(10): ... r = hostname.delay() ... print r.result # 輸出你的hostname >>>
看你輸入的內(nèi)容已經(jīng)觀察兩臺服務(wù)器上你啟動celery服務(wù)的輸出。
5. RabbitMQ遠程連接的問題
一開始測試時遠程服務(wù)器無法連接本地的RabbitMQ服務(wù),后來發(fā)現(xiàn)需要設(shè)置權(quán)限,在/usr/local/etc/rabbitmq/rabbitmq-env.conf這個文件中,修改NODE_IP_ADDRESS=127.0.0.1中的ip為0.0.0.0。
6. 總結(jié)的說
這篇文章簡單的介紹了Celery的使用,重點還是在分布式的使用。覺得不太爽的地方是,在擴展時,需要重新把代碼(tasks.py)部署一遍,而不是可以直接把tasks進行共享,可能Celery是通過task來進行不同的worker的匹配的?目前還不太了解,等深入使用之后再說。
相關(guān)文章
Python使用for實現(xiàn)無限循環(huán)的多種方式匯總
這篇文章主要介紹了Python使用for實現(xiàn)無限循環(huán)的多種方式匯總,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教2023-03-03
Python面向?qū)ο蟪绦蛟O(shè)計OOP入門教程【類,實例,繼承,重載等】
這篇文章主要介紹了Python面向?qū)ο蟪绦蛟O(shè)計OOP入門教程,較為詳細的分析了Python面向?qū)ο箢?實例,繼承,重載等相關(guān)概念與使用技巧,需要的朋友可以參考下2019-01-01
Python3實現(xiàn)旋轉(zhuǎn)數(shù)組的3種算法小結(jié)
旋轉(zhuǎn)數(shù)組是一種常見的數(shù)據(jù)結(jié)構(gòu)問題,通常是指一個有序數(shù)組經(jīng)過旋轉(zhuǎn)后,使得所有元素逆序排列,本文主要介紹了Python3實現(xiàn)旋轉(zhuǎn)數(shù)組的3種算法小結(jié),感興趣的可以了解一下2023-12-12
python實現(xiàn)FTP服務(wù)器服務(wù)的方法
本篇文章主要介紹了python實現(xiàn)FTP服務(wù)器的方法,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2017-04-04

