热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

Rocketmq讲解以及使用SpringCloudStream操作

安装:RocketMQ4.5.1安装教程_慕课手记搭建RocketMQ控制台RocketMQ控制台安装教程_慕课手记SpringCloudStream是什么

安装:

RocketMQ 4.5.1安装教程_慕课手记


 搭建RocketMQ控制台

 RocketMQ控制台安装教程_慕课手记


 Spring Cloud Stream是什么?


  • 是一个用于构建消息驱动的微服务的框架
  • 可实现kafka,rabbitmq,rocketmq的无感知切换
  • 当消息生产者使用Kafka发送消息,那只能用Kafka来接收消息。当使用SpringCloudStream来处理消息的话,我们接收Kafka的消息,可以使用其他的消息中间件来进行接收。SpringCloudStream对消息进行了一层封装,所以我们不需要去关心生产者用的是什么消息中间件。
     

 Spring Cloud Stream编写rocketmq生产者?


  1.   添加依赖:

    org.springframework.cloudspring-cloud-starter-stream-rocketmq

  2. 添加注解添加@ EnableBing(Source.class) 注解,如图所示:

  

 3.写配置(application.yml):

spring:cloud:stream:rocketmq:binder:name-server: 127.0.0.1:9876bindings:output:# 用来指定topicdestination: stream-test-topic

 4.生产者发送消息:

@GetMapping("test-stream")public String testStream(){this.source.output().send(MessageBuilder.withPayload("消息体").build());return "success";}

Spring Cloud Stream 消息消费者?


  1. 添加依赖:

org.springframework.cloudspring-cloud-starter-stream-rocketmq

 2.添加注解添加@ EnableBing(Sink.class) 注解,如图所示:

 

 3.写配置:

spring:cloud:stream:rocketmq:binder:name-server: 127.0.0.1:9876bindings:input:destination: stream-test-topicgroup: binder-group # 这里的group 一定要设置; 如果使用的不是rocketmq的话,这里可以不用设置,可以留空

4.编写监听消费类

@Service@Slf4jpublic class TestStreamConsumer{@StreamListener(Sink.INPUT)public void receive(String messageBody){log.info("通过stream收到了消息: messageBody = {}");}}

 到此已经完成了rocketmq的基本操作,我们使用的监听配置类都是java默认自带的,我们也可以自定义,举个生产者的例子:

1.定义类

public interface MySource{String MY_OUTPUT= "my-output";@Output(MY_OUTPUT)MessageChannel output();}

2.启动类添加注解

 3.加配置

 其他都是雷同的,就不一一列举了


 下边讲一下mq的分布式事务


什么场景使用?

当我们的逻辑代码中,不仅仅对数据库做了处理,一些场景下我们需要同时进行消息发送和与MySQL进行交互的功能;此图中,我们首先进行了消息发送,然后再把消息写入缓存,那么就会导致: 如果写入缓存的时候,代码执行失败,回滚操作只能回滚数据库,消息已经被消费者监听到了并做了处理了。


rocketmq如何做到分布式事务?

简单来说RocketMQ实现分布式事务的原理是: 执行到应该发送消息的时候,它并未发送,而是处于“准备发送”阶段,当所有的代码都已执行完毕且无异常时,则进行完全发送,此刻消息消费者才能监听到消息;


概念术语讲解:


  • 半消息(Half(Prepare) Message)
    • 暂时无法消费的消息。生产者将消息发送到了MQ server,但这个消息会被标记为“暂不能投递”状态,先存储起来;消费者不会去消费这条消息
  • 消息回查(Message Status Check)
    • 网络断开或生产者重启可能会导致丢失事务消息的第二次确认。当MQ Server发现消息长时间处于半消息状态时,将向消息生产者发送请求,询问该消息的最终状态(提交或回滚)
  • 消息三态:
    • Commit:提交事务消息,消费者可以消费此消息
    • Rollback: 回滚事务消息,broker会删除该消息,消费者不能消费
    • UNKNOWN: broker需要回查确认该消息的状态

我们本文主要讲的事spring cloud stream的分布式事务,但是SpringCloud Stream 本身没有实现分布式事务,它与RocketMQ结合则是使用RocketMQ的分布式事务。它若与其他结合,则使用其他消息中间件的分布式事务。


 如何做到分布式事务?


  1. 到数据库中新增一张表,用来记录 RocketMQ的事务日志:

    执行代码:

    

create table rocketmq_transaction_log(id int auto_increment comment 'id' primary key, transaction_Id varchar(45) not null comment '事务id',log varchar(45) not null comment '日志')

 2.消息生产者编写:发送半消息:

//列举两种方式,一种是原始的rocketmqTempalte发送消息,一种是spring cloud stream发送消息一:String transactiOnId=UUID.randomUUID().toString()
this.rocketMQTemplate.sendMessageInTransaction("tx-add-bonus-group","add-bonus",MessageBuilder.withPayload(UserAddBonusMsgDTO.builder().userId(share.getUserId).bonus(50).build()).setHeader(RocketMQHeaders.TRANSACTION_ID,transactionId).setHeader("share_id",id).build(),auditDTO
)二:

 

3.修改配置文件(注:之前编写生产者配置文件,是不需要添加分组的,但是现在我们不使用spring cloud stream的方式,而使用原始的事务方式监听,所以需要在生产者的rocketmq配置下编写事务配置和分组,然后消费者直接监听即可 )如图

 4.消息的监听定义组名称时,一定要与生产者配置文件中的保持一致,如图所示

 5.消费者编写如下

@RocketMQTransactionListener(txProducerGroup = "tx-add-bonus-group")@RequiredArgsConstructor(OnConstructor= @_(@Autowired))public class AddBonusTransactionListener implements RocketMQLocalTransactionListener{@Overridepublic RocketMQLocalTransactionState executeLocalTransaction(Message msg, Object arg)String transactionId(String)headers.get(RocketMQHeaders.TRANSACTION_ID);Integer shareId= Integer.valueOf((String)headers.get("share_id"))try{this.shareService.auditByIdInDB(shareId,(ShareAuditDTO) arg)return RocketMQLocalTransactionState.COMMIT;}catch(Exception e){return RocketMQLocalTransactionState.ROLLBACK;}}// 编写回查代码,当我们@Overridepublic RocketMQLocalTransactionState checkLocalTransaction(Message msg){return null;}}

当我们执行成功,则执行RocketMQLocalTransactionState.COMMIT,失败则ROLLBACK。但是有这样一种情况,比如我们已经执行完逻辑代码,正准备COMMIT提交,此时突然停电了,导致数据已经存入,但是却没有提交成功。所以我们需要一个回查方法,checkLocalTransaction()是一个回查方法,它会去里面进行判断是否执行成功。结合我们已经建立的RocketMQ事务表,我们可以进行回查操作,代码看下方:
 

//新建一个存入方法,我们之前的存入方法,没有将事务数据加入日志表,我们可以这样改造: 当数据存入的时候,将数据存入日志表;回查方法就进行回查,如果没有存入则表示执行失败:
@Autowired
private RocketmqTransactionLogMapepr rocketmqTransactionLogMapepr;@Transactional(rollbackFor= Exception.class)
public void auditByIdWithRocketMqLog(Integer id, ShareAuditDTO auditDTO, String transactionId){
//异步业务代码this.auditByIdInDB(id,auditDTO);
//新增rocketmq事务id,表示已提交,可以committhis.rocketmqTransactionLogMapper.insertSelective(RocketmqTransactionLog.builder().transactionId(transactionId).log("审核分享").build());
}

消息消费者重写:

@Autowiredprivate ShareService shareService;@Autowiredpriavte RocketmqTransactionLogMapper rocketmqTransactionLogMapper;@RocketMQTransactionListener(txProducerGroup = "tx-add-bonus-group")@RequiredArgsConstructor(OnConstructor= @_(@Autowired))public class AddBonusTransactionListener implements RocketMQLocalTransactionListener{@Overridepublic RocketMQLocalTransactionState executeLocalTransaction(Message msg, Object arg)String transactionId(String)headers.get(RocketMQHeaders.TRANSACTION_ID);Integer shareId= Integer.valueOf((String)headers.get("share_id"))try{//上边编写的方法this.shareService.auditByIdWIthRocketMqLog(shareId,(ShareAuditDTO) arg,transactionId)return RocketMQLocalTransactionState.COMMIT;}catch(Exception e){return RocketMQLocalTransactionState.ROLLBACK;}}// 编写回查代码,当消息长时间未被消费,就会回调这个函数@Overridepublic RocketMQLocalTransactionState checkLocalTransaction(Message msg){MessageHeaders headers= msg.getHeaders();String transactiOnId= (String) headers.get(RocketMQHeaders.TRANSACTION_ID);// 查询是否存了事务数据this.rocketmqTransactionLogMapper.selectOne(RocketmqTransactionLog.builder().transactionId(transactionId).build());// 判断是否提交if(transactionLog != null){return RocketMQLocalTransactionState.COMMIT;}return RocketMQLocalTransactionState.ROLLBACK;}}


推荐阅读
  • 基于Socket的多个客户端之间的聊天功能实现方法
    本文介绍了基于Socket的多个客户端之间实现聊天功能的方法,包括服务器端的实现和客户端的实现。服务器端通过每个用户的输出流向特定用户发送消息,而客户端通过输入流接收消息。同时,还介绍了相关的实体类和Socket的基本概念。 ... [详细]
  • ConsumerConfiguration在kafka0.9使用JavaConsumer替代了老版本的scalaConsumer。新版的配置如下:bootstrap. ... [详细]
  • 向QTextEdit拖放文件的方法及实现步骤
    本文介绍了在使用QTextEdit时如何实现拖放文件的功能,包括相关的方法和实现步骤。通过重写dragEnterEvent和dropEvent函数,并结合QMimeData和QUrl等类,可以轻松实现向QTextEdit拖放文件的功能。详细的代码实现和说明可以参考本文提供的示例代码。 ... [详细]
  • 本文主要解析了Open judge C16H问题中涉及到的Magical Balls的快速幂和逆元算法,并给出了问题的解析和解决方法。详细介绍了问题的背景和规则,并给出了相应的算法解析和实现步骤。通过本文的解析,读者可以更好地理解和解决Open judge C16H问题中的Magical Balls部分。 ... [详细]
  • http:my.oschina.netleejun2005blog136820刚看到群里又有同学在说HTTP协议下的Get请求参数长度是有大小限制的,最大不能超过XX ... [详细]
  • 本文介绍了如何使用C#制作Java+Mysql+Tomcat环境安装程序,实现一键式安装。通过将JDK、Mysql、Tomcat三者制作成一个安装包,解决了客户在安装软件时的复杂配置和繁琐问题,便于管理软件版本和系统集成。具体步骤包括配置JDK环境变量和安装Mysql服务,其中使用了MySQL Server 5.5社区版和my.ini文件。安装方法为通过命令行将目录转到mysql的bin目录下,执行mysqld --install MySQL5命令。 ... [详细]
  • Java在运行已编译完成的类时,是通过java虚拟机来装载和执行的,java虚拟机通过操作系统命令JAVA_HOMEbinjava–option来启 ... [详细]
  • 本文详细介绍了如何使用MySQL来显示SQL语句的执行时间,并通过MySQL Query Profiler获取CPU和内存使用量以及系统锁和表锁的时间。同时介绍了效能分析的三种方法:瓶颈分析、工作负载分析和基于比率的分析。 ... [详细]
  • 深入理解Kafka服务端请求队列中请求的处理
    本文深入分析了Kafka服务端请求队列中请求的处理过程,详细介绍了请求的封装和放入请求队列的过程,以及处理请求的线程池的创建和容量设置。通过场景分析、图示说明和源码分析,帮助读者更好地理解Kafka服务端的工作原理。 ... [详细]
  • 解决nginx启动报错epoll_wait() reported that client prematurely closed connection的方法
    本文介绍了解决nginx启动报错epoll_wait() reported that client prematurely closed connection的方法,包括检查location配置是否正确、pass_proxy是否需要加“/”等。同时,还介绍了修改nginx的error.log日志级别为debug,以便查看详细日志信息。 ... [详细]
  • AFNetwork框架(零)使用NSURLSession进行网络请求
    本文介绍了AFNetwork框架中使用NSURLSession进行网络请求的方法,包括NSURLSession的配置、请求的创建和执行等步骤。同时还介绍了NSURLSessionDelegate和NSURLSessionConfiguration的相关内容。通过本文可以了解到AFNetwork框架中使用NSURLSession进行网络请求的基本流程和注意事项。 ... [详细]
  • 本文整理了Java中java.lang.NoSuchMethodError.getMessage()方法的一些代码示例,展示了NoSuchMethodErr ... [详细]
  • 本文介绍了解决java开源项目apache commons email简单使用报错的方法,包括使用正确的JAR包和正确的代码配置,以及相关参数的设置。详细介绍了如何使用apache commons email发送邮件。 ... [详细]
  • 使用freemaker生成Java代码的步骤及示例代码
    本文介绍了使用freemaker这个jar包生成Java代码的步骤,通过提前编辑好的模板,可以避免写重复代码。首先需要在springboot的pom.xml文件中加入freemaker的依赖包。然后编写模板,定义要生成的Java类的属性和方法。最后编写生成代码的类,通过加载模板文件和数据模型,生成Java代码文件。本文提供了示例代码,并展示了文件目录结构。 ... [详细]
  • druid接入kafka indexing service整个流程
    先介绍下我们的druid集群配置Overload1台Coordinator1台Middlemanager3台Broker3台Historical一共12台,其中cold6台,hot ... [详细]
author-avatar
飞轶尘埃_130
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有