RabbitMQ 教程 - 工作队列
工作队列
(使用 Pika Python 客户端)
先决条件
本教程假设 RabbitMQ 已 安装 并在 localhost 上的 标准端口 (5672) 上运行。如果您使用不同的主机、端口或凭据,则需要调整连接设置。
哪里寻求帮助
如果您在学习本教程时遇到困难,可以通过 GitHub Discussions 或 RabbitMQ 社区 Discord 联系我们。
先决条件
与其他的 Python 教程一样,我们将使用 Pika RabbitMQ 客户端 1.0.0 版本。
本教程重点介绍
在第一个教程中,我们编写了程序来发送和接收命名队列中的消息。在这个教程中,我们将创建一个工作队列,用于在多个工作进程之间分发耗时的任务。
工作队列(也称为任务队列)的主要思想是避免立即执行资源密集型任务并等待其完成。取而代之的是,我们安排任务稍后执行。我们将一个任务封装成一条消息并将其发送到队列。一个在后台运行的工作进程将弹出任务并最终执行作业。当您运行多个工作进程时,任务将在它们之间共享。
这个概念对于 Web 应用程序尤其有用,在这些应用程序中,不可能在短暂的 HTTP 请求窗口内处理一个复杂的任务。
在本教程的上一部分中,我们发送了一条包含“Hello World!”的消息。现在我们将发送代表复杂任务的字符串。我们没有真实的实际任务,例如需要调整大小的图片或需要渲染的 PDF 文件,因此我们将通过假装忙碌来模拟它——使用time.sleep()函数。我们将字符串中的点数视为其复杂性;每个点将代表一秒钟的“工作”。例如,一个由Hello...描述的假任务将花费三秒钟。
我们将稍微修改我们之前示例中的send.py代码,以便可以从命令行发送任意消息。此程序将为我们的工作队列安排任务,因此我们将其命名为new_task.py。
import sys
message = ' '.join(sys.argv[1:]) or "Hello World!"
channel.basic_publish(exchange='',
routing_key='hello',
body=message)
print(f" [x] Sent {message}")
我们旧的receive.py脚本也需要一些更改:它需要为消息体中的每个点模拟一秒钟的工作。它将从队列中弹出消息并执行任务,因此我们将其命名为worker.py。
import time
def callback(ch, method, properties, body):
print(f" [x] Received {body.decode()}")
time.sleep(body.count(b'.'))
print(" [x] Done")
轮询分发
使用任务队列的一个优点是能够轻松地并行化工作。如果我们正在积累工作积压,我们可以添加更多的工作进程,从而轻松扩展。
首先,让我们尝试同时运行两个worker.py脚本。它们都将从队列中获取消息,但具体是如何呢?让我们看看。
您需要打开三个控制台。两个将运行worker.py脚本。这两个控制台将是我们的两个消费者 - C1 和 C2。
# shell 1
python worker.py
# => [*] Waiting for messages. To exit press CTRL+C
# shell 2
python worker.py
# => [*] Waiting for messages. To exit press CTRL+C
在第三个中,我们将发布新任务。一旦您启动了消费者,您就可以发布几条消息
# shell 3
python new_task.py First message.
python new_task.py Second message..
python new_task.py Third message...
python new_task.py Fourth message....
python new_task.py Fifth message.....
让我们看看分发给我们的工作进程的内容
# shell 1
python worker.py
# => [*] Waiting for messages. To exit press CTRL+C
# => [x] Received 'First message.'
# => [x] Received 'Third message...'
# => [x] Received 'Fifth message.....'
# shell 2
python worker.py
# => [*] Waiting for messages. To exit press CTRL+C
# => [x] Received 'Second message..'
# => [x] Received 'Fourth message....'
默认情况下,RabbitMQ 会按顺序将每条消息发送给下一个消费者。平均而言,每个消费者将获得相同数量的消息。这种分发消息的方式称为轮询。尝试使用三个或更多工作进程进行此操作。
消息确认
完成一项任务可能需要几秒钟,您可能会想,如果一个消费者开始一项长时间运行的任务并且在完成之前终止了,会发生什么?使用我们当前的代码,一旦 RabbitMQ 将消息传递给消费者,它会立即将其标记为删除。在这种情况下,如果您终止一个工作进程,它正在处理的消息就会丢失。已分发给该特定工作进程但尚未处理的消息也会丢失。
但是我们不想丢失任何任务。如果一个工作进程死亡,我们希望将任务分发给另一个工作进程。
为了确保消息永远不会丢失,RabbitMQ 支持消息确认。ack(确认)由消费者发回,告知 RabbitMQ 特定消息已被接收、处理,并且 RabbitMQ 可以将其删除。
如果消费者死亡(其通道关闭、连接关闭或 TCP 连接丢失)而未发送 ack,RabbitMQ 将理解消息未完全处理,并会将其重新排队。如果当时有其他消费者在线,它将迅速将其重新分发给另一个消费者。这样,您可以确信没有消息会丢失,即使工作进程偶尔会死亡。
强制执行消费者交付确认的超时(默认为 30 分钟)。这有助于检测从未确认交付的错误(卡住)的消费者。您可以按照交付确认超时中的说明增加此超时。
手动消息确认默认是开启的。在之前的示例中,我们通过auto_ack=True标志显式关闭了它们。现在是时候移除这个标志,并在完成任务后从工作进程发送一个正确的确认了。
def callback(ch, method, properties, body):
print(f" [x] Received {body.decode()}")
time.sleep(body.count(b'.') )
print(" [x] Done")
ch.basic_ack(delivery_tag = method.delivery_tag)
channel.basic_consume(queue='hello', on_message_callback=callback)
使用这段代码,你可以确保即使你在使用CTRL+C终止一个正在处理消息的工作进程时,也不会丢失任何东西。工作进程终止后不久,所有未确认的消息都会被重新分发。
确认必须在接收到交付的同一通道上发送。尝试使用不同通道进行确认将导致通道级协议异常。请参阅确认文档指南以了解更多信息。
遗忘的确认
遗漏
basic_ack是一个常见的错误。这是一个简单的错误,但后果严重。当您的客户端退出时,消息将被重新传递(这可能看起来像随机的重新传递),但 RabbitMQ 会消耗越来越多的内存,因为它无法释放任何未确认的消息。为了调试此类错误,您可以使用
rabbitmqctl打印messages_unacknowledged字段sudo rabbitmqctl list_queues name messages_ready messages_unacknowledged在 Windows 上,删除 sudo
rabbitmqctl.bat list_queues name messages_ready messages_unacknowledged
消息持久性
我们已经学习了如何确保即使工作进程死亡,任务也不会丢失。但是,如果 RabbitMQ 服务器停止,我们的任务仍然会丢失。
当 RabbitMQ 退出或崩溃时,它会忘记队列和消息,除非您告诉它不要这样做。需要两件事来确保消息不会丢失:我们需要将队列和消息都标记为持久。
首先,我们需要确保队列能够承受 RabbitMQ 节点重启。为此,我们需要将其声明为持久
channel.queue_declare(queue='hello', durable=True)
虽然此命令本身是正确的,但它在我们的设置中不起作用。这是因为我们已经定义了一个名为hello的非持久化队列。RabbitMQ 不允许您使用不同的参数重新定义现有队列,并且会向尝试这样做的任何程序返回错误。但是有一个快速的变通方法——让我们声明一个具有不同名称的队列,例如task_queue。
channel.queue_declare(queue='task_queue', durable=True)
此queue_declare更改需要同时应用于生产者和消费者代码。
此时,我们确信即使 RabbitMQ 重启,task_queue队列也不会丢失。现在我们需要将我们的消息标记为持久化——通过提供值为pika.DeliveryMode.Persistent的delivery_mode属性。
channel.basic_publish(exchange='',
routing_key="task_queue",
body=message,
properties=pika.BasicProperties(
delivery_mode = pika.DeliveryMode.Persistent
))
关于消息持久化的注意事项
将消息标记为持久并不能完全保证消息不会丢失。尽管它告诉 RabbitMQ 将消息保存到磁盘,但在 RabbitMQ 接受消息但尚未保存的短时间窗口内仍然存在风险。此外,RabbitMQ 不会为每条消息执行
fsync(2)——它可能只保存在缓存中而未真正写入磁盘。持久性保证不强,但对于我们简单的任务队列来说已绰绰有余。如果您需要更强的保证,可以使用发布者确认。
公平分派
您可能已经注意到调度仍然不能完全按我们想要的方式工作。例如,在有两个工作进程的情况下,当所有奇数消息都很重而偶数消息都很轻时,一个工作进程将持续忙碌,而另一个工作进程几乎不做任何工作。好吧,RabbitMQ 对此一无所知,它仍然会均匀地分发消息。
这是因为 RabbitMQ 在消息进入队列时就会分发消息。它不会查看消费者未确认消息的数量。它只是盲目地将第 n 条消息分发给第 n 个消费者。
为了解决这个问题,我们可以使用带有prefetch_count=1设置的Channel#basic_qos通道方法。这使用basic.qos协议方法来告诉 RabbitMQ 一次不要向一个工作进程发送多于一条消息。换句话说,在工作进程处理并确认上一条消息之前,不要将新消息分发给它。相反,它会将消息分发给下一个未忙碌的工作进程。
channel.basic_qos(prefetch_count=1)
关于队列大小的说明
如果所有工作进程都忙碌,您的队列可能会填满。您需要留意这一点,并可能添加更多工作进程,或使用消息 TTL。
总而言之
new_task.py (源代码)
#!/usr/bin/env python
import pika
import sys
connection = pika.BlockingConnection(
pika.ConnectionParameters(host='localhost'))
channel = connection.channel()
channel.queue_declare(queue='task_queue', durable=True)
message = ' '.join(sys.argv[1:]) or "Hello World!"
channel.basic_publish(
exchange='',
routing_key='task_queue',
body=message,
properties=pika.BasicProperties(
delivery_mode=pika.DeliveryMode.Persistent
))
print(f" [x] Sent {message}")
connection.close()
worker.py (源代码)
#!/usr/bin/env python
import pika
import time
connection = pika.BlockingConnection(
pika.ConnectionParameters(host='localhost'))
channel = connection.channel()
channel.queue_declare(queue='task_queue', durable=True)
print(' [*] Waiting for messages. To exit press CTRL+C')
def callback(ch, method, properties, body):
print(f" [x] Received {body.decode()}")
time.sleep(body.count(b'.'))
print(" [x] Done")
ch.basic_ack(delivery_tag=method.delivery_tag)
channel.basic_qos(prefetch_count=1)
channel.basic_consume(queue='task_queue', on_message_callback=callback)
channel.start_consuming()
通过使用消息确认和prefetch_count,您可以设置一个工作队列。持久化选项允许任务在 RabbitMQ 重启后仍然存在。
现在我们可以继续教程 3,学习如何将同一条消息传递给多个消费者。