【RabbitMQ】安装及六种模式

rabbitmq:0->1的学习

学习文档:https://www.cnblogs.com/guyuyun/p/14970592.html

安装rabbitmq镜像

cd /home/rabbitmq

docker run -d \
-v ./data:/var/lib/rabbitmq \
-p 5672:5672 -p 5673:15672 --name rabbitmq --restart=always \
--hostname myRabbit rabbitmq:3.9.12-management

访问容器内部15672端口映射到外面的端口地址

这里是127.0.0.1:5673

默认账号密码:账号 guest , 密码 guest

RabbitMQ六种模式

Hello world模式

Hello world模式是最简单的一种模式,一个producer发送message,另一个consumer接收message。

  • producer示例 send.py :producer端发送message会涉及最简单的5个步骤,具体见代码注释。

    import pika
    
    # 1. 创建一个到RabbitMQ server的连接,如果连接的不是本机,
    # 则在pika.ConnectionParameters中传入具体的ip和port即可,默认端口开放为5672,可以不传
    connection = pika.BlockingConnection(
        pika.ConnectionParameters('localhost', port))
    # 2. 创建一个channel
    channel = connection.channel()
    # 3. 创建队列,queue_declare可以使用任意次数,
    # 如果指定的queue不存在,则会创建一个queue,如果已经存在,
    # 则不会做其他动作,官方推荐,每次使用时都可以加上这句
    channel.queue_declare(queue='hello')
    # 4. 发布消息
    channel.basic_publish(
        exchange='',  # RabbitMQ中所有的消息都要先通过交换机,空字符串表示使用默认的交换机
        routing_key='hello',  # 指定消息要发送到哪个queue
        body='Hello world!')  # 消息的内容
    # 5. 关闭连接
    connection.close()
    
  • consumer示例 receive.py :consumer端接收message会涉及最简单的6个步骤,具体见代码注释。

    import pika
    
    
    def main():
        # 1. 创建一个到RabbitMQ server的连接,如果连接的不是本机,
        # 则在pika.ConnectionParameters中传入具体的ip和port即可
        connection = pika.BlockingConnection(
            pika.ConnectionParameters('localhost'))
        # 2. 创建一个channel
        channel = connection.channel()
        # 3. 创建队列,queue_declare可以使用任意次数,
        # 如果指定的queue不存在,则会创建一个queue,如果已经存在,
        # 则不会做其他动作,官方推荐,每次使用时都可以加上这句
        channel.queue_declare(queue='hello')
    
        # 4. 定义消息处理程序
        def callback(ch, method, properties, body):
            print('[x] Received %r' % body)
    
        # 5. 接收来自指定queue的消息
        channel.basic_consume(
            queue='hello',  # 接收指定queue的消息
            on_message_callback=callback,  # 接收到消息后的处理程序
            auto_ack=True)  # 指定为True,表示消息接收到后自动给消息发送方回复确认,已收到消息
        print('[*] Waiting for message.')
        # 6. 开始循环等待,一直处于等待接收消息的状态
        channel.start_consuming()
    
    
    if __name__ == '__main__':
        main()
    

Work queues模式

Work queues模式即工作队列模式,也称为Task queues模式(任务队列模式),这个模式的特点在于,同一个queue可以允许多个consumer从中获取massage,RabbitMQ默认会从queue中依次循环的给不同的consumer发送message。与Hello world模式相比,工作队列模式在示例代码中有些许不同

  • hello world模式中指定了 auto_ack=True ,表示consumer接收到message之后自动发送确认标识,告诉RabbitMQ可以从队列中移除该条message了。工作队列模式下,使用了默认值,即需要手动确认 ch.basic_ack(delivery_tag=method.delivery_tag)
  • hello world模式中只有一个consumer去处理queue中的message,工作队列模式中可以有多个consumer去处理queue中的message。
  • 工作队列模式中可以使message持久化,保证RabbitMQ服务挂掉之后message依然不被丢失。
  • 工作队列模式中可以手动标记message已接收并处理完成(这一步在编程时千万别忘了,否则RabbitMQ会认为该条message没有被处理,会一直保留在队列中,并适时发送到别的consumer中)。
  • producer示例 new_task.py :注意如果声明queue时参数不一样,则建议换一个名称,因为RabbitMQ中不允许同名但实际上是不同的两个queue存在,比如指定了 durable=True 参数。

    import pika
    
    connection = pika.BlockingConnection(
        pika.ConnectionParameters(host='localhost'))
    channel = connection.channel()
    
    # 声明durable=True可以保证RabbitMQ服务挂掉之后队列中的消息也不丢失,原理是因为
    # RabbitMQ会将queue中的消息保存到磁盘中
    channel.queue_declare(queue='task_queue')
    
    message = 'Hello World! 555'
    channel.basic_publish(
        exchange='',
        routing_key='task_queue',
        body=message,
        # delivery_mode=2可以指定此条消息持久化,防止RabbitMQ服务挂掉之后消息丢失
        # 但是此属性设置并不能百分百保证消息真的被持久化,因为RabbitMQ挂掉的时候
        # 它可能还保存在缓存中,没来得及同步到磁盘中
        # properties=pika.BasicProperties(delivery_mode=2)
    )
    print(" [x] Sent %r" % message)
    connection.close()
    
  • consumer示例 worker.py :RabbitMQ会将queue中的消息依次发送给不同的consumer,所以这里的示例可以用同样的代码多开几个客户端进行测试。

    import pika
    import time
    
    connection = pika.BlockingConnection(
        pika.ConnectionParameters(host='localhost'))
    channel = connection.channel()
    
    # 声明durable=True可以保证RabbitMQ服务挂掉之后队列中的消息也不丢失,原理是因为
    # RabbitMQ会将queue中的消息保存到磁盘中
    channel.queue_declare(queue='task_queue')
    print(' [*] Waiting for messages.')
    
    
    def callback(ch, method, properties, body):
        print(" [x] Received %r" % body.decode())
        # 此处以消息中的“.”的数量作为sleep的值,是为了模拟不同消息处理的耗时
        time.sleep(body.count(b'.'))
        print(" [x] Done")
        # 手动标记消息已接收并处理完毕,RabbitMQ可以从queue中移除该条消息
        ch.basic_ack(delivery_tag=method.delivery_tag)
    
    
    # prefetch_count表示接收的消息数量,当我接收的消息没有处理完(用basic_ack
    # 标记消息已处理完毕)之前不会再接收新的消息了
    channel.basic_qos(prefetch_count=1)
    channel.basic_consume(queue='task_queue', on_message_callback=callback)
    
    channel.start_consuming()
    

Publish/Subscribe模式

相对于工作/任务模式中的一个message只能发送给一个consumer使用,发布订阅模式会将一个message同时发送给多个consumer使用,其实就是producer将message广播给所有的consumer。

交换机

这个模式中会引入交换机(exchange)的概念,其实在RabbitMQ中,所有的producer都不会直接把message发送到queue中,甚至producer都不知道message在发出后有没有发送到queue中,事实上,producer只能将message发送给exchange,由exchange来决定发送到哪个queue中。

exchange的一端用来从producer中接收message,另一端用来发送message到queue,exchange的类型规定了怎么处理接收到的message,发布订阅模式使用到的exchange类型为 fanout ,这种exchange类型非常简单,就是将接收到的message广播给已知的(即绑定到此exchange的)所有consumer。

当然,如果不想使用特定的exchange,可以使用 exchange='' 表示使用默认的exchange,默认的exchange会将消息发送到 routing_key 指定的queue,可以参考工作(任务)队列模式和Hello world模式。

fanout类型

在使用fanout类型的exchange时,并不是只有一个queue,然后将queue中的message每个consumer都发一份,而是会为每个已知(绑定)的consumer创建一个queue,然后广播message到对应queue中,fanout类型的exchange会将从生产者接收到的message广播到所有的绑定到自己的queue中,这个queue通常是由consumer端指定的专属于consumer自己的、由RabbitMQ随机命名的queue,由此,consumer广播message后,每个consumer都能收到同样的一条message了。

consumer端需要为自己生成一个专属于自己的由RabbitMQ随机命名的queue,然后绑定到fanout类型的exchange上,由此,exchange才知道将message广播给哪些已经绑定到自己的queue。

  • 示例 emit_log.py :用于生成一条日志信息,然后广播给所有consumer。

    import pika
    
    connection = pika.BlockingConnection(
        pika.ConnectionParameters(host='localhost'))
    channel = connection.channel()
    
    # 创建一个指定名称的交换机,并指定类型为fanout,用于将接收到的消息广播到所有queue中
    channel.exchange_declare(exchange='logs', exchange_type='fanout')
    
    message = "info: Hello World!"
    # 将消息发送给指定的交换机,在fanout类型中,routing_key=''表示不用发送到指定queue中,
    # 而是将发送到绑定到此交换机的所有queue
    channel.basic_publish(exchange='logs', routing_key='', body=message)
    print(" [x] Sent %r" % message)
    connection.close()
    
  • 示例 receive_logs.py :这个程序可以多运行几个,表示有多个consumer需要使用producer发送的消息。

    import pika
    
    connection = pika.BlockingConnection(
        pika.ConnectionParameters(host='localhost'))
    channel = connection.channel()
    
    # 指定交换机
    channel.exchange_declare(exchange='logs', exchange_type='fanout')
    
    # 使用RabbitMQ给自己生成一个专有的queue
    result = channel.queue_declare(queue='', exclusive=True)
    queue_name = result.method.queue
    
    # 将queue绑定到指定交换机
    channel.queue_bind(exchange='logs', queue=queue_name)
    
    print(' [*] Waiting for logs.')
    
    
    def callback(ch, method, properties, body):
        print(" [x] %r" % body)
    
    
    channel.basic_consume(
        queue=queue_name, on_message_callback=callback, auto_ack=True)
    
    channel.start_consuming()
    

Routing模式

路由模式中,exchange类型为direct,与发布订阅模式相似,但是不同之处在于,发布订阅模式将message不加区分广播给所有的绑定queue,但是路由模式中,允许queue在绑定exchange时,同时指定 routing_key ,exchange就只会发送message到与 routing_key 匹配的queue中,其他的所有message都将被丢弃。当然,也允许多个queue指定相同的 routing_key ,此时效果就相当于fanout类型的发布订阅模式了。

producer端:从代码上看,路由模式和订阅模式非常相似,唯一不同的是,exchange类型为direct,且发送message时多了一个routing_key参数,exchange会根据routing_key将message发送到对应的queue中。

  • 示例 emit_log_direct.py :发送不同级别的日志消息到queue中,不同的consumer根据自己指定的routing_key接收message。

    import pika
    
    connection = pika.BlockingConnection(
        pika.ConnectionParameters(host='localhost'))
    channel = connection.channel()
    
    # 指定交换机名称和类型
    channel.exchange_declare(exchange='direct_logs', exchange_type='direct')
    
    # severity = 'info'
    # severity = 'warning'
    severity = 'error'
    message = 'Hello World!'
    
    # 与fanout类型的发布订阅模式相比,只是多了一个routing_key参数
    # 交换机会根据routing_key将消息发送到对应的queue中
    channel.basic_publish(
        exchange='direct_logs', routing_key=severity, body=message)
    print(" [x] Sent %r:%r" % (severity, message))
    connection.close()
    

consumer端:在路由模式中,不同的queue可以指定相同的routing_key,同一个queue也可以指定多个routing_key,从exchange角度看,它知道所有绑定到自己的queue,也知道每个queue指定的routing_key,发送消息时,只需要根据queue的routing_key进行发送即可。

  • 示例 receive_logs_direct.py :这个程序可以多运行几个,每个程序指定接收不同日志级别的消息。

    import pika
    
    connection = pika.BlockingConnection(
        pika.ConnectionParameters(host='localhost'))
    channel = connection.channel()
    
    # 指定交换机名称和类型
    channel.exchange_declare(exchange='direct_logs', exchange_type='direct')
    
    # 使用RabbitMQ给自己生成一个专属于自己的queue
    result = channel.queue_declare(queue='', exclusive=True)
    queue_name = result.method.queue
    
    # 绑定queue到交换机,并指定自己只接受哪些routing_key
    # 可以都接收,也可以只接收一种
    # for severity in ['error', 'warning', 'info']:
    for severity in ['error']:
        channel.queue_bind(
            exchange='direct_logs', queue=queue_name, routing_key=severity)
    
    print(' [*] Waiting for logs. To exit press CTRL+C')
    
    
    def callback(ch, method, properties, body):
        print(" [x] %r:%r" % (method.routing_key, body))
    
    
    channel.basic_consume(
        queue=queue_name, on_message_callback=callback, auto_ack=True)
    
    channel.start_consuming()
    

Topics模式

主题模式的exchange类型为topic,相较于路由模式,主题模式更加灵活,区别就在于它的routing_key可以带通配符 * (匹配一个单词)和 # (匹配0个或多个单词),每个单词以点号分隔,但注意,routing_key的总大小不能超过255个字节。

如果一个message同时匹配了多个queue中的routing_key,那这几个queue都会收到这个message,如果一个message同时匹配了一个queue中的多个routing_key,那这个queue也只会接收一次这条message,如果一个message没有匹配上任何routing_key,那么这个message将被丢弃。

如果routing_key定义为 # (就只有这一个通配符),那么这个queue将接收所有message,就像exchange类型为fanout的发布订阅模式一样,如果routing_key两个通配符都没有使用,那么这个queue将会接收固定routing_key的message,就像exchange类型为direct的路由模式一样。

producer端:从代码上讲,producer的代码与路由模式没什么区别,只不过在routing_key的传值上需要注意与想要发送到的queue进行匹配。

  • 示例 emit_log_topic.py :还是发送日志消息的示例,不过消息类型不再只有级别这一种类型,还添加了发送者的信息,级别与发送者之间以点号分隔。

    import pika
    
    connection = pika.BlockingConnection(
        pika.ConnectionParameters(host='localhost'))
    channel = connection.channel()
    
    # 指定交换机名称和类型
    channel.exchange_declare(exchange='topic_logs', exchange_type='topic')
    
    # 以点号分隔每个单词
    routing_key = 'anonymous.error'
    message = 'Hello World!'
    channel.basic_publish(
        exchange='topic_logs', routing_key=routing_key, body=message)
    print(" [x] Sent %r:%r" % (routing_key, message))
    connection.close()
    

consumer端:consumer根据需要,使用星号 * 和井号 # 两个通配符对routing_key进行特定主题的匹配,其余部分与路由模式则是一致的。

  • 示例 receive_logs_topic.py : 这个程序可以多运行几个,每个程序使用通配符指定不同的主题。

    import pika
    
    connection = pika.BlockingConnection(
        pika.ConnectionParameters(host='localhost'))
    channel = connection.channel()
    
    # 指定交换机名称和类型
    channel.exchange_declare(exchange='topic_logs', exchange_type='topic')
    
    # 使用RabbitMQ给自己生成一个专属于自己的queue
    result = channel.queue_declare(queue='', exclusive=True)
    queue_name = result.method.queue
    
    # 可以绑定多个routing_key,routing_key以点号分隔每个单词
    # *可匹配一个单词,#可以匹配0个或多个单词
    for binding_key in ['anonymous.*']:
        channel.queue_bind(
            exchange='topic_logs', queue=queue_name, routing_key=binding_key)
    
    print(' [*] Waiting for logs. To exit press CTRL+C')
    
    
    def callback(ch, method, properties, body):
        print(" [x] %r:%r" % (method.routing_key, body))
    
    
    channel.basic_consume(
        queue=queue_name, on_message_callback=callback, auto_ack=True)
    
    channel.start_consuming()
    

RPC模式

RPC远程调用(Remote Procedure Call)模式其实就是使用消息队列处理请求的一种方式,通常请求接收到后会立即执行且多个请求是并行执行的,如果一次性来了太多请求,达到了服务端处理请求的瓶颈就会影响性能,但是如果使用消息队列的方式,最大的一点好处是可以不用立即处理请求,而是将请求放入消息队列,服务端只需要根据自己的状态从消息队列中获取并处理请求即可。

producer端:RPC模式的客户端(producer)需要使用到两个queue,一个用于发送request消息(此queue通常在服务端声明和创建),一个用于接收response消息。另外需要特别注意的一点是,需要为每个request消息指定一个uuid(correlation_id属性,类似请求id),用于识别返回的response消息是否属于对应的request。

  • 示例 rpc_client.py

    import pika
    import uuid
    
    
    class FibonacciRpcClient(object):
    
        def __init__(self):
            self.connection = pika.BlockingConnection(
                pika.ConnectionParameters(host='localhost'))
    
            self.channel = self.connection.channel()
    
            # 创建一个此客户端专用的queue,用于接收服务端发过来的消息
            result = self.channel.queue_declare(queue='', exclusive=True)
            self.callback_queue = result.method.queue
    
            self.channel.basic_consume(
                queue=self.callback_queue,
                on_message_callback=self.on_response,
                auto_ack=True)
    
        def on_response(self, ch, method, props, body):
            # 判断接收到的response是否属于对应request
            if self.corr_id == props.correlation_id:
                self.response = body
    
        def call(self, n):
            self.response = None
            self.corr_id = str(uuid.uuid4())  # 为该消息指定uuid,类似于请求id
            self.channel.basic_publish(
                exchange='',
                routing_key='rpc_queue',  # 将消息发送到该queue
                properties=pika.BasicProperties(
                    reply_to=self.callback_queue,  # 从该queue中取消息
                    correlation_id=self.corr_id,  # 为此次消息指定uuid
                ),
                body=str(n))
            while self.response is None:
                self.connection.process_data_events()
            return int(self.response)
    
    
    fibonacci_rpc = FibonacciRpcClient()
    
    print(" [x] Requesting fib(30)")
    response = fibonacci_rpc.call(30)
    print(" [.] Got %r" % response)
    

consumer端:服务端也需要使用到两个queue,一个接收request消息(通常由服务端创建),一个发送response消息(通常由客户端创建),需要特别注意,发送response消息时需要将对应request的uuid(correlation_id属性)赋上。

  • 示例 rpc_server.py

    import pika
    
    connection = pika.BlockingConnection(
        pika.ConnectionParameters(host='localhost'))
    
    channel = connection.channel()
    
    # 指定接收消息的queue
    channel.queue_declare(queue='rpc_queue')
    
    
    def fib(n):
        if n == 0:
            return 0
        elif n == 1:
            return 1
        else:
            return fib(n - 1) + fib(n - 2)
    
    
    def on_request(ch, method, props, body):
        n = int(body)
    
        print(" [.] fib(%s)" % n)
        response = fib(n)
    
        ch.basic_publish(exchange='',  # 使用默认交换机
                         routing_key=props.reply_to,  # response发送到该queue
                         properties=pika.BasicProperties(
                             correlation_id=props.correlation_id),  # 使用correlation_id让此response与请求消息对应起来
                         body=str(response))
        ch.basic_ack(delivery_tag=method.delivery_tag)
    
    
    channel.basic_qos(prefetch_count=1)
    # 从rpc_queue中取消息,然后使用on_request进行处理
    channel.basic_consume(queue='rpc_queue', on_message_callback=on_request)
    
    print(" [x] Awaiting RPC requests")
    channel.start_consuming()
    

猜你喜欢

转载自blog.csdn.net/al6nlee/article/details/130548197