网络微信300535中签号查询询mq535456位置图

一般不超过80个字符
网站关键词
一般不超过100个字符
一般不超过200个字符
关键词排名分析
数据载入中,请稍候。
数据载入中,请稍候。
最近查询:
其他功能:
& 爱站网 版权所有
About Aizhan每个人的想法不同,
RocketMQ 介绍的时候就说 是阿里从他们使用的上 解耦出来 近一步简化 便捷的
目的当然是 让其能快速入手和开发
如果不是在项目设计层面上
只是使用的话
从Git上下载该项目的源码 其中有一个包是专门的测试 实例的
只需要照猫画虎 使用就可以了
1 不能有中文路径!
3 不能有中文路径!
5 不能有中文路径!
interface MQProducer
//生产者接口
实现该接口的只有一个 默认的 DefaultMQProducer
DefaultMQProducer 实现 MQProducer 接口的时候 还继承了 ClientConfig类 (客户端配置类)
可以配置如
sendMsgTimeout 超时时间
producerGroup
消息最大多少 超过多少压缩等等
关键方法 :
send(Message) 发送一个消息到MQ
这个方法其实是调用 DefaultMQProducer构造方法 创建的
defaultMQProducerImpl 类对象的 send(..)方法
defaultMQProducerImpl 类 才是真正发送消息的核心类
defaultMQProducerImpl.send 方法 --》 sendDefaultImpl方法
sendDefaultImpl --》
tryToFindTopicPublishInfo 来检测映射 队列是否存在 是否正常
final Segment&K,V&[]
不存在 不正常 :
创建一个 TopicPublishInfo 到 segments 映射文件 同时 将 Topic (队列) 信息 更新到NameServer中
sendDefaultImpl --》
通过设置是失败重复次数
超时时间 来从新发送消息
for (; times & 失败重复次数 && (结束时间 - 开始时间) & 配置的超时时间; times++)
sendDefaultImpl --》sendKernelImpl
装载 配置 信息
--》sendKernelImpl --》this.mQClientFactory.getMQClientAPIImpl().sendMessage()
MQClientInstance mQClientFactory
DefaultMQProducer start启动方式时候初始化的
MQClientManager.getInstance().getAndCreateMQClientInstance(this.defaultMQProducer,rpcHook);
--》sendMessage
MQClientInstance
MQClientAPIImpl mQClientAPIImpl
MQClientAPIImpl.sendMessage()
--& sendMessageSync
switch (communicationMode)
默认是 同步
SendResult sendResult
改类型描述当时 发送MQ 的最终状态
Message 消息的 Topic 不能为空
producer.shutdown(); 关闭 shutdown来清理资源,关闭网络连接,从MetaQ服务器上注销自己
发送消息负载的问题
是通过循环从 namesrv 获取的到 Topic 路由消息 (也就是有几个broker 每个 broker 有几个队列)
记录当前发送过的 +1
备注 : 队列数量 小于 消费者数量
多余的消费者将不起做用
关于顺序消息发送 的问题
环境: 1 下单 2 付款 3 收货 3个状态 ,
普通模式下 发送到队列中的 是轮询队列 将3个消息分别发送到多个队列中。
很可能会照成出现 先消费 2 在消费 1 流程错乱的情况
当然可以业务层处理 但是业务层处理比较麻烦
顺序消费的发送的原理 :
我们自己指定 消息将要添加的队列
SendResult sendResult = producer.send(msg,
new MessageQueueSelector()
public MessageQueue select(List&MessageQueue& mqs,
Message msg, Object arg)
Integer id = (Integer)
int index = id % mqs.size(); // 通过取于来 讲 同一个订单号 访入同一个队列中
// 前提是 队列数量没有变动
return mqs.get(index);
}, &10001&); // orderID &10001&是传递给回调方法的 自定义数据
List&MessageQueue& mqs 就是从namesrv 获取的所有队列
// 订单 Id
String orderId = "46";
message.setKeys(orderId);
每个消息在业务局面的唯一标识码
通过 topic,key 来查询返条消息内容,以及消息被谁消费
查询的时候 非常重要
interface MQConsumer
// 回溯消费
mqadmin resetOffsetByTime 命令
改方式 是通过消费的日志来恢复的
但是只能通过 消费的组来恢复
恢复消息后 也只能用改组来从新消费
-s : 时间戳的问题
可以是 毫秒 或者是从什么时候开始
//拉取模式
interface MQPullConsumer:
// 接收模式
长轮询模式
一次获取一批 消息
批量和单条 内部实现
还是获取了所有的 可以获取到的队列消息 放入集合中 判断集合大小是否 大于设置的单次消费数量
直接将其 消息集合 放入执行回调方法中
使用的是For 循环 来单条处理
interface MQPushConsumer:
class DefaultMQPushConsumer
extends ClientConfig implements MQPushConsumer
DefaultMQPushConsumer 包含很多可以配置的信息
详情见文档
其中最主要的 有几个
messageModel
支持以下两种
1、集群消费 2、广播消费
messageListener
消息监听器
consumeThreadMin 消费线程池数量 默认10
consumeThreadMax 消费线程池数量 默认20
消费线程池 !
我发布一个 消费应用 消费逻辑就可以 N 个 处理! 不用自己搞了有没有!!
安默认的来算
20个消费逻辑
而且还 可以横向 增加 消费应用
只要保持是一个组就可以了
难怪会在文档中 特意话一个 性能图啊!!
应用通常吐 Consumer 对象注册一个 Listener 接口,一旦收到消息,Consumer 对象立刻回调 Listener 接口方法
MessageListenerOrderly 这个是有序的
MessageListenerConcurrently 这个是无序的
关键方法 DefaultMQPushConsumer registerMessageListener(new implements MessageListenerConcurrently)
public void registerMessageListener(MessageListenerConcurrently messageListener) {
this.messageListener = messageL // 给自己复制一个 消费逻辑类对象
方法后续查询 替换修改等
this.defaultMQPushConsumerImpl.registerMessageListener(messageListener);
// 将消费逻辑类告诉 调用者类
关键方法 start
DefaultMQPushConsumer.start()
DefaultMQPushConsumerImpl.start()
this.serviceState 来记录设置当前程序运行状态
checkConfig() 检查配置 初始化赋值
copySubscription() 拷贝订阅者信息 赋值 消费逻辑类
// 有就获取 没有就创建一个
this.mQClientFactory =
MQClientManager.getInstance().getAndCreateMQClientInstance(this.defaultMQPushConsumer,this.rpcHook);
接着初始化一系列信息
// 加载消费进度
this.offsetStore.load();
// 该方法有两个实现
一个是本地 this.readLocalOffset() 获取数据
//获取文件字符串
String content = MixAll.file2String(this.storePath);
OffsetSerializeWrapper offsetSerializeWrapper =OffsetSerializeWrapper.fromJson(content, OffsetSerializeWrapper.class);
可以看出 淘宝使用的是JSON
if (this.getMessageListenerInner() instanceof MessageListenerOrderly)
else if (this.getMessageListenerInner() instanceof MessageListenerConcurrently)
判断 消费逻辑类 实现那个接口 创建对应的 ConsumeMessageOrderlyService 对象
ConsumeMessageConcurrentlyService
该实现为空
ConsumeMessageOrderlyService.start()
创建并执行一个周期性的动作成为了第一个在给定的初始延迟之后,随后用给定的时期,这是执行后将开始initialDelay然后initialDelay +,然后initialDelay + 2 *时期,等等。如果任何执行任务遇到异常,后续执行的镇压。否则,只会终止的任务通过取消或终止执行器。如果执行这个任务花费的时间比其期,然后后续执行可能会迟到,但不会同时执行。
//就是一个定时器
this.scheduledExecutorService.scheduleAtFixedRate(new Runnable() {
public void run() {
ConsumeMessageOrderlyService.this.lockMQPeriodically();
}, 1000 * 1, ProcessQueue.RebalanceLockInterval, TimeUnit.MILLISECONDS);
scheduleAtFixedRate 应该是一个线程池管理
不用去关心 scheduleAtFixedRate 方法
ConsumeMessageOrderlyService.this.lockMQPeriodically()
this.defaultMQPushConsumerImpl.getRebalanceImpl().lockAll()
RebalanceImpl.lockAll() //
将读取到的消息上锁
// 最关键的服务启动了
// 正在的启动了
mQClientFactory.start();
synchronized (this){
//Start request-response channel
启动请求-响应通道
this.mQClientAPIImpl.start();
//Start various schedule tasks
开始各种安排任务
启动定时任务
其中就包含 获取到MQ消息消费的 回调方法
this.startScheduledTask();
//Start pull service
开始拉取服务
this.pullMessageService.start();
//Start rebalance service
启动负载均衡
该服务非常重要
this.rebalanceService.start();
//Start push service
开始推动服务
this.defaultMQProducer.getDefaultMQProducerImpl().start(false);
指定 group
订阅 topic
注册消息监听处理器,当消息到来时消费消息
消费端 Start
复制订阅关系
初始化 rebalance 变量
构建 offsetStore 消费进度存储对象
启动消费消息服务
向 mqClientFactory 注册本消费者
启动 client 端远程通信
* 加载消费进度 Loand()
* 启动定时任务
定时获取 nameserver 地址
定时从 nameserver 获取 topic 路由信息
定时清理下线的 borker
定时向所有 broker 发送心跳信息, (包括订阅关系)
* 定时持久化 Consumer 消费进度(广播存储到本地,集群存储到 Broker)
这里也是是个关键
持久化消费进度 是用来记录当前 组的消费情况 可以做到 回溯消费
和宕机等情况下 启动后接着上次执行消费
统计信息打点
动态调整消费线程池
启动拉消息服务 PullMessageService
启动消费端负载均衡服务 RebalanceService
从 namesrv 更新 topic 路由信息
向所有 broker 发送心跳信息, (包括订阅关系)
唤醒 Rebalance 服务线程
// 有些懒得看了 直接看别人 得了
消费端负载均衡
这个也是个重点
消费端会通过 RebalanceService 线程,10 秒钟做一次基于 topic 下的所有队列负载
消费端 遍历自己所有的 Topic 获取 Topic 下所有的 队列
(一个Topic 包含对个队列
默认是 4 个 有别于其他MQ )
从 broker 获取当前 组(group)的所有消费端( 有心跳的)
获取队列集合Set&MessageQueue& mqSet
现在队列分配策略实例
AllocateMessageQueueStrategy 执行分配算法
1:平均分配算法 :
其实是类似于分页的算法
将所有 queue 排好序类似于记录
将所有消费端 consumer 排好序,相当于页数
然后获取当前 consumer 所在页面应该分配到的 queue
2:按照配置来分配队列 :
消费服务启动的时候 就指定好了要消费的 是哪个队列
3:按照机房来配置队列 :
Consumer 启动的时候会指定在哪些机房的消息
(应该是指定 broker)
获取指定机房的 queue
然后在执行如 1)平均算法
根据分配队列的结果更新 ProccessQueueTable&MessageQueue, ProcessQueue&
比对 mqSet 将多余的队列删除, 当 broker 当机或者添加,会导致分配到 mqSet 变化,
添加新增队列, 比对 mqSet,给新增的 messagequeue 构建长轮询对象 PullRequest 对象,会从 broker 获取消费的进度 构建这个队列的 ProcessQueue
将 PullRequest 对象派发到长轮询拉消息服务(单线程异步拉取)
注:ProcessQueue 正在被消费的队列,
(1) 长轮询拉取到消息都会先存储到 ProcessQueue 的 TreeMap&Long, MessageExt& 集合中,消费调后会删除掉,用来控制 consumer 消息堆积,
TreeMap&Long, MessageExt& key 是消息在此 ConsumeQueue 队列中索引
(2) 对于顺序消息消费 处理
locked 属性:当 consumer 端向 broker 申请锁队列成功后设置 true,
只有被锁定 的 processqueue 才能被执行消费
rollback: 将消费在 msgTreeMapTemp 中的消息,放回 msgTreeMap 重新消费
commit: 将临时表 msgTreeMapTemp 数据清空,代表消费完成,放回最大偏移
(3) 这里是个 TreeMap,对 key 即消息的 offset 进行排序,这个样可以使得消息进 行顺序消费
Rocketmq 的消息是由 consumer 端主动到 broker拉取的, consumer 向 broker 发送拉消息
请求, PullMessageService 服务通过一个线程将阻塞队列 LinkedBlockingQueue&PullRequest&
中的 PullRequest 到 broker 拉取消息
DefaultMQPushConsumerImpl 的 pullMessage(pullRequest)方法执行向 broker 拉消息动作
1. 获取 ProcessQueue 判读是否 drop 的, drop 为 true 返回
2. 给 ProcessQueue 设置拉消息时间戳
3. 流量控制,正在消费队列中消息(未被消费的)超过阀值,稍后在执行拉消息
4. 流量控制,正在消费队列中消息的跨度超过阀值(默认 2000) ,稍后在消费
5. 根据 topic 获取订阅关系
6. 构建拉消息回调对象 PullBack, 从 broker 拉取消息(异步拉取)返回结果是回调
7. 从内存中获取 commitOffsetValue
//TODO 这个值跟 pullRequest.getNextOffset 区别
8. 构建 sysFlag
pull 接口用到的 flag
9. 调底层通信层向 broker 发送拉消息请求
如果 master 压力过大,会建议去 slave 拉取消息
如果是到 broker 拉取消息清楚实时提交标记位,因为 slave 不允许实时提交消费进
度,可以定时提交
//TODO 关于 master 拉消息实时提交指的是什么?
10. 拉到消息后回调 PullCallback
处理 broker 返回结果 pullResult
更新从哪个 broker(master 还是 slave)拉取消息
反序列化消息
消息中放入队列最大最小 offset, 方便应用来感知消息堆积度
将消息加入正在处理队列 ProcessQueue
将消息提交到消费消息服务 ConsumeMessageService
流控处理, 如果 pullInterval 参数大于 0 (拉消息间隔,如果为了降低拉取速度,
可以设置大于 0 的值) , 延迟再执行拉消息,
如果 pullInterval 为 0 立刻在执行拉
看图 人家花的不错 很明了
长轮询向broker拉取消息是批量拉取的,
默认设置批量的值为pullBatchSize = 32, 可配置
消费端 consumer 构建一个消费消息任务 ConsumeRequest 消费一批消息的个数是 可配置的 consumeMessageBatchMaxSize = 1, 默认批量个数为一个
也就是说 每次传递给回调方法的 参数 消息集合 的解释
ConsumeRequest 任务 run 方法执行
判断 proccessQueue 是否被 droped 的, 废弃直接返回,不在消费消息
构建并行消费上下文
给消息设置消费失败时候的 retry topic,当消息发送失败的时候发送到 topic
为%RETRY%groupname 的队列中
调 MessageListenerConcurrently 监听器的 consumeMessage 方法消费消息,返回消
如果 ProcessQueue 的 droped 为 true,不处理结果,不更新 offset, 但其实这里消
费端是消费了消息的,这种情况感觉有被重复消费的风险
处理消费结果
消费成功,
对于批次消费消息, 返回消费成功并不代表所有消息都消费成功,
但是消费消息的时候一旦遇到消费消息失败直接放回,根据 ackIndex 来标记
成功消费到哪里了
消费失败, ackIndex 设置为-1
广播模式发送失败的消息丢弃, 广播模式对于失败重试代价过高,对整个集
群性能会有较大影响,失败重试功能交由应用处理
集群模式, 将消费失败的消息一条条的发送到 broker 的重试队列中去,如果
此时还有发送到重试队列发送失败的消息, 那就在 cosumer 的本地线程定时 5
秒钟以后重试重新消费消息, 在走一次上面的消费流程。
删除正在消费的队列 processQueue 中本次消费的消息,放回消费进度
更新消费进度, 这里的更新只是一个内存 offsetTable 的更新,后面有定时任务定
时更新到 broker 上去
关于消费成功 和 失败的
在集群模式下
回调方法设置为消费失败
会将当前消费的失败消息 发送到 broker 的容错度列中
等待N次+ 从新消费 。
push 消费-顺序消费消息
顺序消费服务 ConsumeMessageConcurrentlyService 构建的时候
构建一个线程池来接收消费请求 ConsumeRequest
构建一个单线程的本地线程, 用来稍后定时重新消费 ConsumeRequest, 用来执行
定时周期性(一秒)钟锁队列任务
周期性锁队列 lockMQPeriodically
获取正在消费队列列表 ProcessQueueTable 所有 MesssageQueue,
构建根据 broker
归类成 MessageQueue 集合 Map&brokername, Set&MessageQueue&&
遍历 Map&brokername, Set&MessageQueue&&的 brokername, 获取 broker 的 master
机器地址, 将brokerName的Set&MessageQueue&发送到broker请求锁定这些队列。
端锁定队列,其实就是在 broker 的 queue 中标记一下消费端,表示这个 queue 被某个 client
锁定。 Broker 会返回成功锁定队列的集合, 根据成功锁定的 MessageQueue,设置对应的正
在处理队列 ProccessQueue 的 locked 属性为 true 没有锁定设置为 false
通过长轮询拉取到消息后会提交到消息服务 ConsumeMessageOrderlyService,
ConsumeMessageOrderlyService 的 submitConsumeRequest 方法构建 ConsumeRequest 任务提
交到线程池。ConsumeRequest 是由 ProcessQueue 和 Messagequeue 组成。
ConsumeRequest 任务的 run 方法
判断 proccessQueue 是否被 droped 的, 废弃直接返回,不在消费消息
每个 messagequeue 都会生成一个队列锁来保证在当前 consumer 内,同一个队列串行
判断 processQueue 的 lock 属性是否为 true, lock 属性是否过期, 如果为 false 或者过期,
放到本地线程稍后锁定在消费。 如果 lock 为 true 且没有过期,开始消费消息
计算任务执行的时间如果大于一分钟且线程数小于队列数情况下,将 processqueue,
messagequeue 重新构建 ConsumeRequest 加到线程池 10ms 后在消费,这样防止个别队列被
获取客户端的消费批次个数,默认一批次为一条
从 proccessqueue 获取批次消息,
processqueue.takeMessags(batchSize) , 从 msgTreeMap
中移除消息放到临时 map 中 msgTreeMapTemp, 这个临时 map 用来回滚消息和 commit 消
息来实现事物消费
调回调接口消费消息,返回状态对象 ConsumeOrderlyStatus
根据消费状态,处理结果
1) 非事物方式,自动提交
消息消息状态为 success: 调用 mit 方法
获取 msgTreeMapTemp 的最后一个 key,表示提交的 offset
清空 msgTreeMapTemp 的消息,已经成功消费
2) 事物提交,由用户来控制提交回滚(精卫专用)
更新消费进度,
这里的更新只是一个内存 offsetTable 的更新, 后面有定时任务定时更
新到 broker 上去
DefaultMQPushConsumerImpl
关闭消费端
关闭消费线程
将分配到的 Set&MessageQueue&的消费进度保存到 broker
DefaultMQPushConsumerImpl
ProcessQueueTable&MessageQueue,
ProcessQueue&的 keyset 的 messagequeue 去获取
RemoteBrokerOffsetStore.offsetTable&MessageQueue, AutomicLong&Map 中的消费进
offsetTable 中 的 messagequeue 的 值, 在 update 的时候如果 没有对应 的
Messagequeue 会构建, 但是也会 rebalance 的时候将没有分配到的 messagequeue
rebalance 会将 offsettable 中没有分配到 messagequeue 删除,
但是在从 offsettable
删除之前会将 offset 保存到 broker
Unregiser 客户端
pullMessageService 关闭
scheduledExecutorService 关闭,关闭一些客户端的起的定时任务
mqClientApi 关闭
rebalanceService 关闭
1 消息的延迟
通过测试程序可以看出
通过设置 message 的DelayTimeLevel 可以设置消息延迟处理
消息重试机制
通过源码可以看出 消费方法的返回对象 只有两个值
CONSUME_SUCCESS // 消费成功
RECONSUME_LATER // 消费失败,稍后重试
CONSUME_SUCCESS 无异议
关键是 RECONSUME_LATER
我们可以通过 RECONSUME_LATER 来容错。 阿里提供的这个
重试机制 是通过添加到一个错误队列中 设置期
DelayTimeLevel 来实现的
第一次消费的时候
打印 MessageExt 没有 properties属性的详细信息
返回 RECONSUME_LATER 稍后重试
[queueId=0, storeSize=106, queueOffset=0, sysFlag=0, bornTimestamp=7, bornHost=/10.10.12.27:41697, storeTimestamp=9, storeHost=/10         .10.12.27:10911, msgId=0A0A0C1BF10, commitLogOffset=204560, bodyCRC=, reconsumeTimes=0, preparedTransactionOffset=0, toStrin         g()=Message [topic=Topic2, flag=0, properties={MAX_OFFSET=1, MIN_OFFSET=0}, body=9]]
第二次消费的时候
[queueId=0, storeSize=260, queueOffset=0, sysFlag=0, bornTimestamp=7, bornHost=/10.10.12.27:41697, storeTimestamp=4, storeHost=/10         .10.12.27:10911, msgId=0A0A0C1B9, commitLogOffset=204921, bodyCRC=, reconsumeTimes=1, preparedTransactionOffset=0, toStrin         g()=Message [topic=Topic2, flag=0, properties={ORIGIN_MESSAGE_ID=0A0A0C1BF10, DELAY=3, REAL_TOPIC=%RETRY%ConsumerGroupName, WAIT=fals         e, RETRY_TOPIC=Topic2, MAX_OFFSET=1, MIN_OFFSET=0, REAL_QID=0}, body=9]]
可以看出 消息
queueId 是相同的值 0 但是
msgId 却变了 ! 同时用rocketmq-console 来监控 该 消费者 你会发现 多了个 Topic
%RETRY%ConsumerGroupName
所有 可以得出一个结论
我们返回 消费失败,稍后重试
RECONSUME_LATER
消息会回到 broker 同时创建一条相同的消息 访如
%RETRY%ConsumerGroupName
同时 设置 该 消息的 延迟消费 每次延迟时间 +1
我觉得可以通过 reconsumeTimes 来做一个简单的容错
获取 当前消费的 次数
是否大于 设定值
大于就说明其是死信
记录到异常数据库
备注问题:
    背景:
          生产端 使用 linux 服务器 (UTF-8 编码)
              Message me = new Message();
              me.setBody("中国人".getBytes());
              producer.send(me);
          消费端 使用
Windows 服务器 (GBK 编码)
              MessageExt msg = msgs.get(0);
              String strBody = new String(msg.getBody());
    问题 :
          生产端无问题,消费端 存在 字符集 编码问题 。
    原因 :
          生产端发送给MQ 的数据是 字节 !
getBytes() 不指定字节格式 会默认使用 本地系统编码格式
linux下通常是 UTF-8 格式
          消费端由于是Windows 本地系统的编码格式是 GBK 格式 。
          new String(msg.getBody()); 方法 不指定编码格式 使用的也是 本地系统编码格式 也就是 GBK格式
          可能会说 直接 GBK转换UTF-8就好了,但是! GBK 对应的是2个字节
UTF-8 对应的是3个字节
当出现 3个字的中文或者 特殊符号的时候
          转换过程中会 主动 2补1 所有 &中国人&
这里 人 字就会乱码
          String iso = new String(strBody.getBytes("UTF-8"), "ISO-8859-1");
           &strBody = new String(iso.getBytes("ISO-8859-1"), "UTF-8");
          上面这种解决方法在 测试方法中有效
在消费端 具体消费类中的消费方法 并未生效
          这里希望有大神可以指出为什么!?
    解决方法:
          MessageExt msg = msgs.get(0);
          strBody = new String(msg.getBody(), "UTF-8");
          在第一次 字节转换成字符串的时候 就指定 该字节按照 UTF-8 格式转换!
      PS:
          虽然解决方法很简单,但是 稍微不注意 就会跳过这里啊 &劲量做到统一开发环境啊! 
& & & 消费端 多实例问题
      经过试验,一个消费 组 只能处理一个 Topic&下的一个&Tags &!
     
努力或许不会有收获,但是不努力却一定不会有收获!
阅读(...) 评论()

我要回帖

更多关于 f1dpps0bg5mq保修查询 的文章

 

随机推荐