RocketMQ 消息偏移量 Offset 和 CommitLog

消息偏移量 Offset

概念

  • message queue 是无限长的数组,一条消息进来下标就会涨1,下标就是 offset,消息在某个 MessageQueue 里的位置,通过 offset 的值可以定位到这条消息,或者指示 Consumer 从这条消息开始向后处理。
  • message queue 中的 maxOffset 表示消息的最大 offset,maxOffset 并不是最新的那条消息的 offset,而是最新消息的 offset+1,minOffset 则是现存在的最小 offset。
  • fileReserveTime=48 默认消息存储48小时后,消费会被物理地从磁盘删除,message queue 的 minOffset 也就对应增长。所以比 minOffset 还要小的那些消息已经不在 broker上了,就无法被消费

类型(父类是OffsetStore):

  • 本地文件类型
    • DefaultMQPushConsumer 的 BROADCASTING 模式,各个 Consumer 没有互相干扰,使用 LoclaFileOffsetStore,把 Offset 存储在本地
  • Broker 代存储类型
    • DefaultMQPushConsumer 的 CLUSTERING 模式,由 Broker 端存储和控制 Offset 的值,使用 RemoteBrokerOffsetStore

作用

  • 主要是记录消息的偏移量,有多个消费者进行消费
  • 集群模式下采用 RemoteBrokerOffsetStore,broker 控制 offset 的值
  • 广播模式下采用 LocalFileOffsetStore,消费端存储

建议采用 pushConsumer,RocketMQ 自动维护 OffsetStore,如果用另外一种 pullConsumer 需要自己进行维护 OffsetStore

消息存储 CommitLog

消息存储是由 ConsumeQueue 和 CommitLog 配合完成

  • ConsumeQueue 是逻辑队列,CommitLog 是真正存储消息文件的,ConsumeQueue 存储的是指向物理存储的地址。Topic 下的每个 message queue 都有对应的 ConsumeQueue 文件,内容也会被持久化到磁盘。默认地址:store/consumequeue/{topicName}/{queueid}/fileName
  • CommitLog:存储消息真正内容的文件。
    • 生成规则:
      • 每个文件的默认1G =1024 * 1024 * 1024,commitlog 的文件名 fileName,名字长度为20位,左边补零,剩余为起始偏移量;比如 00000000000000000000 代表了第一个文件,起始偏移量为0,文件大小为1G=1 073 741 824 Byte;当这个文件满了,第二个文件名字为00000000001073741824,起始偏移量为1073741824,消息存储的时候会顺序写入文件,当文件满了则写入下一个文件。
    • 判断消息存储在哪个 CommitLog 上
      • 例如 1073742827 为物理偏移量,则其对应的相对偏移量为 1003 = 1073742827 - 1073741824,并且该偏移量位于第二个 CommitLog。

Broker 里面一个 Topic 里面有多个 MesssageQueue,每个 MessageQueue 对应一个 ConsumeQueue,ConsumeQueue 里面记录的是消息在 CommitLog 里面的物理存储地址。

ZeroCopy零拷贝技术

RocketMQ 高效原因

  • CommitLog 顺序写, 存储了 MessagBody、message key、tag 等信息
  • ConsumeQueue 随机读 + 操作系统的PageCache + 零拷贝技术ZeroCopy
  • 零拷贝技术
    •   
      read(file, tmp_buf, len);
      write(socket, tmp_buf, len);
    • 例子:将一个 File 读取并发送出去(Linux 有两个上下文,内核态,用户态)
      • File文件的经历了4次copy
        • 调用 read,将文件拷贝到了 kernel 内核态
        • CPU 控制 kernel 态的数据 copy 到用户态
        • 调用 write 时,user 态下的内容会 copy 到内核态的 socket 的 buffer 中
        • 最后将内核态 socket buffer 的数据 copy 到网卡设备中传送
      • 缺点:增加了上下文切换、浪费了2次无效拷贝(即步骤2和3)
    • ZeroCopy:
      • 请求 kernel 直接把 disk 的 data 传输给 socket,而不是通过应用程序传输。ZeroCopy 大大提高了应用程序的性能,减少不必要的内核缓冲区跟用户缓冲区间的拷贝,从而减少 CPU 的开销和减少了 kernel 和 user 模式的上下文切换,达到性能的提升
      • 对应零拷贝技术有 mmap 及 sendfile
        • mmap:小文件传输快
          • RocketMQ 选择这种方式,mmap+write 方式,小块数据传输,效果会比 sendfile 更好
        • sendfile:大文件传输比 mmap 快
      • Java 中的 TransferTo() 实现了 ZeroCopy
      • 应用:Kafka、Netty、RocketMQ 等都采用了零拷贝技术

 

猜你喜欢

转载自www.cnblogs.com/jwen1994/p/12369913.html