Django使用Celery异步发送邮件
前言
在Django使用Celery异步发送邮件的过程中,遇到Celery日志提示任务已接收,但实际上任务并没有执行,解决后特此记录。
使用版本如下:
Django版本:4.1.4
Celery版本:5.2.7
邮箱配置
进入邮箱,找到POP3/SMTP/IMAP项,开启POP3/SMTP服务,添加客户端授权码
Django项目发送邮件
配置邮件服务器
发送邮件时需要配置好SMTP服务器的连接信息。在settings.py
中配置邮件服务器信息
# 配置邮件发送
EMAIL_BACKEND = 'django.core.mail.backends.smtp.EmailBackend'
# 对应邮箱服务器地址
EMAIL_HOST = 'smtp.163.com'
# 端口
EMAIL_PORT = 25
#发送邮件的邮箱
EMAIL_HOST_USER = 'admin@163.com'
#在邮箱中设置的客户端授权密码
EMAIL_HOST_PASSWORD = 'YS22JE123PAZJ2N'
#收件人看到的发件人
EMAIL_FROM = 'admin<admin@163.com>'
Django发送邮件模块
Django自带了发送邮件的模块
django.core.mail
,可以方便地使用它来发送电子邮件
send_mail方法描述:
send_mail(subject, message, from_email, recipient_list, html_message=None)
subject 主题 邮件标题
message 普通邮件正文,普通字符串
from_email 发件人
recipient_list 收件人列表
html_message 多媒体邮件正文,可以是html字符串
基本使用示例:
from django.core.mail import send_mail
subject = 'Subject' # 主题
message = 'Message' # 正文
from_email = 'noreply@example.com' # 发件人地址
recipient_list = ['recipient1@example.com', 'recipient2@example.com'] # 收件人地址列表
send_mail(subject, message, from_email, recipient_list)
Celery
发送邮箱邮件是耗时操作,所以需要异步发送邮件,使用Celery实现异步任务。
概述
Celery是一个基于Python的分布式任务队列,它可以轻松地处理大量的并发任务。Celery支持多种消息传输协议,如AMQP、Redis等,同时也支持多种后端存储系统,如RabbitMQ、Redis等。通过使用Celery,我们可以将一些耗时的任务放到异步的任务队列中,从而提高Web应用的响应速度和性能。
Celery的工作原理非常简单。首先定义一个任务(Task),然后将这个任务加入到任务队列中。Celery Worker会从任务队列中取出任务并执行,完成后将结果返回给调用方。可以根据需要对任务进行优先级排序、设定任务超时时间等。
除了作为任务队列之外,Celery还可以用来实现周期性任务调度,比如定时清理缓存、备份数据库等。Celery提供了丰富的API和插件,可以轻松地完成各种复杂的任务处理需求。
官网:https://docs.celeryq.dev/en/stable/index.html
GitHub:https://github.com/celery/celery
工作模式
默认是进程池方式,进程数以当前机器的CPU核数为参考,每个CPU开四个进程。
指定进程数:
# proj:celery实例对象文件
celery worker -A proj --concurrency=4
改变进程池方式为协程方式:
# 安装eventlet模块
pip install eventlet
# 启用Eventlet,指定协程数目
celery worker -A proj --concurrency=1000 -P eventlet -c 1000
安装Celery
安装Celery
pip install -U Celery
Celery的基本使用
创建config.py配置文件
# 设置代理人broker,使用redis的5号库
broker_url = "redis://127.0.0.1/5"
# 设置结果存储,使用redis的6号库
result_backend = "redis://127.0.0.1/6"
# 任务超时限制
task_time_limit = 10 * 60
# 时区
celery_timezone = 'Asia/Shanghai'
创建Celery实例并加载配置
创建celery_tasks 包,然后创建main.py文件,实现创建Celery实例并加载配置
import os
from celery import Celery
from celery_tasks import config
# 为celery使用django配置文件进行设置,识别和加载django的配置文件
os.environ.setdefault('DJANGO_SETTINGS_MODULE', '项目名.settings')
# 创建celery实例,参数是celery名称,需保证唯一
celery_app = Celery('celery_tasks')
# 加载celery配置,设置broker队列
celery_app.config_from_object(config)
定义任务
在包celery_tasks
下创建任务包test_task
,并在该包下创建tasks.py
文件,用于定义任务
from celery_tasks.main import celery_app
# bind:保证task对象会作为第一个参数自动传入
# name:异步任务别名
# retry_backoff:异常自动重试的时间间隔 第n次(retry_backoff×2^(n-1))s
# max_retries:异常自动重试次数的上限
@celery_app.task(bind=True, name='test_task', retry_backoff=3)
def celerTest(self, number):
try:
print("执行{}号任务".format(number))
except Exception as e:
# 有异常自动重试三次
raise self.retry(exc=e, max_retries=3)
在celery_tasks.main.py文件种进行任务注册
import os
from celery import Celery
# 让celery使用django配置文件,即加载当前工程的配置文件
os.environ.setdefault("DJANGO_SETTINGS_MODULE", "demo.settings")
# 创建celery实例,参数是celery名称,需保证唯一
celery_app = Celery('demo_celery')
# 加载celery配置,指定配置文件路径,即可设置broker队列
celery_app.config_from_object('celery_tasks.config')
# 自动注册celery任务,列表元素是任务包路径
celery_app.autodiscover_tasks(['celery_tasks.test_task'])
启动Celery服务
# -A 对应的应用程序, 其参数是项目中Celery实例的位置
# worker 要启动的worker
# -l 日志等级,如info等级
celery -A celery_tasks.main worker -l info
(demo) D:\WorkSpace\Python\demo\demo>celery -A celery_tasks.main worker -l info
-------------- celery@Coding v5.2.7 (dawn-chorus)
--- ***** -----
-- ******* ---- Windows-10-10.0.22000-SP0 2023-01-16 23:25:49
- *** --- * ---
- ** ---------- [config]
- ** ---------- .> app: demo_celery:0x1fdba863d00
- ** ---------- .> transport: redis://127.0.0.1:6379/8
- ** ---------- .> results: redis://127.0.0.1/9
- *** --- * --- .> concurrency: 12 (prefork)
-- ******* ---- .> task events: OFF (enable -E to monitor tasks in this worker)
--- ***** -----
-------------- [queues]
.> celery exchange=celery(direct) key=celery
[tasks]
. test_task
[2023-01-16 23:25:49,701: INFO/MainProcess] Connected to redis://127.0.0.1:6379/8
[2023-01-16 23:25:49,703: INFO/MainProcess] mingle: searching for neighbors
[2023-01-16 23:25:50,095: INFO/SpawnPoolWorker-1] child process 49036 calling self.run()
[2023-01-16 23:25:50,114: INFO/SpawnPoolWorker-2] child process 43196 calling self.run()
[2023-01-16 23:25:50,136: INFO/SpawnPoolWorker-3] child process 1284 calling self.run()
[2023-01-16 23:25:50,154: INFO/SpawnPoolWorker-4] child process 49708 calling self.run()
[2023-01-16 23:25:50,183: INFO/SpawnPoolWorker-5] child process 49704 calling self.run()
[2023-01-16 23:25:50,208: INFO/SpawnPoolWorker-6] child process 20884 calling self.run()
[2023-01-16 23:25:50,221: INFO/SpawnPoolWorker-7] child process 17840 calling self.run()
[2023-01-16 23:25:50,242: INFO/SpawnPoolWorker-8] child process 56040 calling self.run()
[2023-01-16 23:25:50,275: INFO/SpawnPoolWorker-9] child process 45968 calling self.run()
[2023-01-16 23:25:50,291: INFO/SpawnPoolWorker-10] child process 44888 calling self.run()
[2023-01-16 23:25:50,313: INFO/SpawnPoolWorker-11] child process 8848 calling self.run()
[2023-01-16 23:25:50,318: INFO/SpawnPoolWorker-12] child process 11020 calling self.run()
[2023-01-16 23:25:50,727: INFO/MainProcess] mingle: all alone
[2023-01-16 23:25:50,740: WARNING/MainProcess] D:\Development\Python\env\demo\lib\site-packages\celery\fixups\django.py:203: UserWarning: Using settings.DEBUG leads to a memory
leak, never use this setting in production environments!
warnings.warn('''Using settings.DEBUG leads to a memory
[2023-01-16 23:25:50,741: INFO/MainProcess] celery@Coding ready.
[2023-01-16 23:25:51,332: INFO/SpawnPoolWorker-13] child process 4580 calling self.run()
[2023-01-16 23:25:51,341: INFO/SpawnPoolWorker-14] child process 44956 calling self.run()
[2023-01-16 23:25:51,453: INFO/SpawnPoolWorker-15] child process 46100 calling self.run()
[2023-01-16 23:25:51,466: INFO/SpawnPoolWorker-16] child process 46872 calling self.run()
[2023-01-16 23:25:52,797: INFO/SpawnPoolWorker-17] child process 2716 calling self.run()
[2023-01-16 23:25:52,800: INFO/SpawnPoolWorker-18] child process 49488 calling self.run()
[2023-01-16 23:25:52,807: INFO/SpawnPoolWorker-19] child process 3912 calling self.run()
[2023-01-16 23:25:53,608: INFO/SpawnPoolWorker-20] child process 40624 calling self.run()
提交任务
from celery_tasks.test_task.tasks import celerTest
if __name__ == '__main__':
for i in range(1,10):
celerTest.delay(i)
异常
提交任务 Celery控制台日志出现示任务已接收,但并没有执行
INFO/MainProcess] Task send_email[f301b786-af40-4283-a4d6-4a97ae05658f] received
INFO/MainProcess] Task send_email[5997d896-fdb2-4220-92fe-7027291df56d] received
原因:
celery对windows支持不好,需添加组件eventlet 指定协程
解决办法
pip install eventlet
celery -A celery_tasks.main worker -l info -P eventlet -c 10
执行1号任务
执行2号任务
执行3号任务
执行4号任务
执行5号任务
执行6号任务
执行7号任务
执行8号任务
执行9号任务
INFO/MainProcess] Task send_email[01457c6c-4571-4b1e-b09c-39df49d50162] received
WARNING/MainProcess] 执行1号任务
INFO/MainProcess] Task send_email[01457c6c-4571-4b1e-b09c-39df49d50162] succeeded in 1.2969999999913853s: None
Celery发送邮件
创建config.py配置文件
# 设置代理人broker,使用redis的5号库
broker_url = "redis://127.0.0.1/5"
# 设置结果存储,使用redis的6号库
result_backend = "redis://127.0.0.1/6"
# 任务超时限制
celery_task_time_limit = 10 * 60
# 时区
celery_timezone = 'Asia/Shanghai'
创建Celery实例并加载配置
创建定义Celery包:celery_tasks
,然后创建main.py文件,实现创建Celery实例并加载配置
import os
from celery import Celery
from celery_tasks import config
# 为celery使用django配置文件进行设置,识别和加载django的配置文件
os.environ.setdefault('DJANGO_SETTINGS_MODULE', '项目名称.settings')
# 创建celery实例,参数是celery名称,需保证唯一
celery_app = Celery('celery_tasks')
# 加载celery配置,设置broker队列
celery_app.config_from_object(config, namespace='CELERY')
# celery_app.config_from_object('celery_tasks.config')
# 自动注册celery任务,列表元素是任务包路径
celery_app.autodiscover_tasks(['celery_tasks.email'])
定义发送邮件任务
在包celery_tasks
下创建任务包email_task
,并在该包下创建tasks.py
文件,用于定义任务
from django.conf import settings
from django.core.mail import send_mail
from celery_tasks.main import celery_app
# bind:保证task对象会作为第一个参数自动传入
# name:异步任务别名
# retry_backoff:异常自动重试的时间间隔 第n次(retry_backoff×2^(n-1))s
# max_retries:异常自动重试次数的上限
@celery_app.task(bind=True, name='send_email', retry_backoff=3)
def sendEmail(self, to_email, verify_url):
subject = "邮箱验证"
html_message = '<p>尊敬的用户您好!</p>' \
'<p>您的邮箱为:%s 。请点击此链接激活您的邮箱:</p>' \
'<p><a href="%s">%s<a></p>' % (to_email, verify_url, verify_url)
try:
send_mail(subject, "", settings.EMAIL_FROM, [to_email], html_message=html_message)
except Exception as e:
# 有异常自动重试三次
raise self.retry(exc=e, max_retries=3)
启动Celery
在使用Celery时,需要启动worker进程来处理异步任务。可以使用以下命令来启动worker进程:
celery -A celery_tasks.main worker -l info -P eventlet -c 10
调用发送邮件异步任务
定义请求地址
from django.urls import re_path
from . import views
urlpatterns = [
re_path(r'^send/$', views.SendView.as_view(), name='send'),
]
定义视图,并发送邮件
class SendView(View):
def get(self, request):
for i in range(1, 2):
# 异步发送验证邮件
verify_url = 'https://www.admin.com'
email = 'admin@qq.com'
res = sendEmail.delay(email, verify_url)
print(res)
return http.JsonResponse({"msg": "OK"})
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/136830.html