小言_互联网的博客

seata TC启动流程分析

431人阅读  评论(0)

 戳蓝字「TopCoder」关注我们哦!

编者注:Seata 是一款阿里开源的分布式事务解决方案,致力于提供高性能和简单易用的分布式事务服务。Seata 将为用户提供了 AT、TCC、SAGA 和 XA 事务模式,为用户打造一站式的分布式解决方案,github地址:https://github.com/seata/seata。

分析seata TC启动流程之前,首先看下分布式事务的核心要点

  1. 事务的持久化,事务所处的各种状态事务参与方的各种状态都需要持久化,当实例宕机时才能基于持久化的数据对事务回滚或提交,实现最终一致性

  2. 定时对超时未完成事务的处理(继续尝试提交或回滚),即通过重试机制实现事务的最终一致性

  3. 分布式事务的跨服务实例传播,当分布式事务跨多个实例时需要实现事务的传播,一般需要适配不同的rpc框架

  4. 事务的隔离级别:大多数分布式事务为了性能,默认的隔离级别是读未提交

  5. 幂等性:对于XA或者seata的AT这样的分布式事务来说,都已经默认实现了幂等性,而TCC、Saga这种接口级别实现的分布式事务都还需要业务开发者自己实现幂等性。

tc-server端启动流程如下:

启动类

seata-server 启动方法 io.seata.server.Server#main,默认启动端口 SERVER_DEFAULT_PORT = 8091。main方法主要是解析并设置一些配置,初始化几个线程池,启动DefaultCoordinator和Netty服务等,源码如下:


   
  1. public static void main(String[] args) throws IOException {
  2.      int port = PortHelper.getPort(args);
  3.     System.setProperty(ConfigurationKeys.SERVER_PORT, Integer.toString(port));
  4.      // file/db/redis
  5.     System.setProperty(ConfigurationKeys.STORE_MODE, parameterParser.getStoreMode());
  6.      // 消息处理线程池,netty 接收到消息后传递给该线程进行处理
  7.     ThreadPoolExecutor workingThreads =  new ThreadPoolExecutor(NettyServerConfig.getMinServerPoolSize(),
  8.             NettyServerConfig.getMaxServerPoolSize(), NettyServerConfig.getKeepAliveTime(), TimeUnit.SECONDS,
  9.              new LinkedBlockingQueue<>(NettyServerConfig.getMaxTaskQueueSize()),
  10.              new NamedThreadFactory( "ServerHandlerThread", NettyServerConfig.getMaxServerPoolSize()),  new ThreadPoolExecutor.CallerRunsPolicy());
  11.     NettyRemotingServer nettyRemotingServer =  new NettyRemotingServer(workingThreads);
  12.     nettyRemotingServer.setListenPort(parameterParser.getPort());
  13.     UUIDGenerator.init(parameterParser.getServerNode());
  14.     SessionHolder.init(parameterParser.getStoreMode());
  15.      // 默认的事务协调器:AT/TCC/XA/saga 等
  16.     DefaultCoordinator coordinator =  new DefaultCoordinator(nettyRemotingServer);
  17.     coordinator.init();  // 初始化几个线程池,commit重试、rollback重试等,TODO 待分析
  18.     nettyRemotingServer.setHandler(coordinator);
  19.      // register ShutdownHook
  20.     ShutdownHook.getInstance().addDisposable(coordinator);
  21.     ShutdownHook.getInstance().addDisposable(nettyRemotingServer);
  22.     XID.setIpAddress(NetUtil.getLocalIp());
  23.     XID.setPort(nettyRemotingServer.getListenPort());
  24.      // 启动服务
  25.     nettyRemotingServer.init();
  26.     System.exit( 0);
  27. }

SessionHolder负责Session的持久化,一个Session对象对应一个事务,事务分为两种:全局事务(GlobalSession)和分支事务(BranchSession)。SessionHolder支持file、db、redis这几种持久化方式,其中db支持集群模式,推荐使用db。SessionHolder中最主要的四个字段如下:


   
  1. // ROOT_SESSION_MANAGER用于获取所有的Setssion,以及Session的创建、更新、删除等。
  2. private static SessionManager ROOT_SESSION_MANAGER;
  3. // 用于获取、更新所有的异步commit的Session
  4. private static SessionManager ASYNC_COMMITTING_SESSION_MANAGER;
  5. // 用于获取、更新所有需要重试commit的Session
  6. private static SessionManager RETRY_COMMITTING_SESSION_MANAGER;
  7. // 用于获取、更新所有需要重试rollback的Session
  8. private static SessionManager RETRY_ROLLBACKING_SESSION_MANAGER;

目前TC这块关于HA的特性这块支持不太多,不过可以将session store设置为DB来支持TC的故障转移,毕竟session数据还在。

DefaultCoordinator是事务协调器的核心,如:开启、提交、回滚全局事务,注册、提交、回滚分支事务都是由DefaultCoordinator负责协调处理的。DefaultCoordinato通过RpcServer与远程的TM、RM通信来实现分支事务的提交、回滚等。

netty初始化

netty初始化从方法io.seata.core.rpc.netty.NettyRemotingServer#init开始,首先会注册各种处理器,然后开始标准的netty启动过程:启动bossGroup和wrokerGroup,设置编解码器和channelHandlers。


   
  1. public void init() {
  2.      // registry processor
  3.     registerProcessor();
  4.      // netty初始化
  5.     super.init();
  6. }
  7. public void start() {
  8.     this.serverBootstrap.group(this.eventLoopGroupBoss, this.eventLoopGroupWorker)
  9.         .localAddress( new InetSocketAddress(listenPort))
  10.         .childHandler( new ChannelInitializer<SocketChannel>() {
  11.             @Override
  12.             public void initChannel(SocketChannel ch) {
  13.                  // 心跳
  14.                 ch.pipeline().addLast( new IdleStateHandler(nettyServerConfig.getChannelMaxReadIdleSeconds(),  00))
  15.                     .addLast( new ProtocolV1Decoder())
  16.                     .addLast( new ProtocolV1Encoder());
  17.                  if (channelHandlers != null) {
  18.                     addChannelPipelineLast(ch, channelHandlers);
  19.                 }
  20.             }
  21.         });
  22.     ChannelFuture future = this.serverBootstrap.bind(listenPort).sync();
  23.     RegistryFactory.getInstance().register( new InetSocketAddress(XID.getIpAddress(), XID.getPort()));
  24.     initialized.set( true);
  25.     future.channel().closeFuture().sync();
  26. }

netty注册各种处理器也就是对应的业务处理器,这些处理器有些是在业务线程池中执行的,这里的业务线程池也就是main方法中创建的ThreadPoolExecutor workingThreads线程池。处理器类型有TC注册、RM注册、全局事务操作、心跳等类型:


   
  1. private void registerProcessor() {
  2.      // 1. registry on request message processor
  3.     ServerOnRequestProcessor onRequestProcessor =
  4.          new ServerOnRequestProcessor(this, getHandler());
  5.     super.registerProcessor(MessageType.TYPE_BRANCH_REGISTER, onRequestProcessor, messageExecutor);
  6.     super.registerProcessor(MessageType.TYPE_BRANCH_STATUS_REPORT, onRequestProcessor, messageExecutor);
  7.     super.registerProcessor(MessageType.TYPE_GLOBAL_BEGIN, onRequestProcessor, messageExecutor);
  8.     super.registerProcessor(MessageType.TYPE_GLOBAL_COMMIT, onRequestProcessor, messageExecutor);
  9.     super.registerProcessor(MessageType.TYPE_GLOBAL_LOCK_QUERY, onRequestProcessor, messageExecutor);
  10.     super.registerProcessor(MessageType.TYPE_GLOBAL_REPORT, onRequestProcessor, messageExecutor);
  11.     super.registerProcessor(MessageType.TYPE_GLOBAL_ROLLBACK, onRequestProcessor, messageExecutor);
  12.     super.registerProcessor(MessageType.TYPE_GLOBAL_STATUS, onRequestProcessor, messageExecutor);
  13.     super.registerProcessor(MessageType.TYPE_SEATA_MERGE, onRequestProcessor, messageExecutor);
  14.      // 2. registry on response message processor
  15.     ServerOnResponseProcessor onResponseProcessor =
  16.          new ServerOnResponseProcessor(getHandler(), getFutures());
  17.     super.registerProcessor(MessageType.TYPE_BRANCH_COMMIT_RESULT, onResponseProcessor, messageExecutor);
  18.     super.registerProcessor(MessageType.TYPE_BRANCH_ROLLBACK_RESULT, onResponseProcessor, messageExecutor);
  19.      // 3. registry rm message processor
  20.     RegRmProcessor regRmProcessor =  new RegRmProcessor(this);
  21.     super.registerProcessor(MessageType.TYPE_REG_RM, regRmProcessor, messageExecutor);
  22.      // 4. registry tm message processor
  23.     RegTmProcessor regTmProcessor =  new RegTmProcessor(this);
  24.     super.registerProcessor(MessageType.TYPE_REG_CLT, regTmProcessor, null);
  25.      // 5. registry heartbeat message processor
  26.     ServerHeartbeatProcessor heartbeatMessageProcessor =  new ServerHeartbeatProcessor(this);
  27.     super.registerProcessor(MessageType.TYPE_HEARTBEAT_MSG, heartbeatMessageProcessor, null);
  28. }

注意:如果super.registerProcessor入参executor为空的话,就会在netty worker线程中来执行

之后TC server端就开始工作了,接收TM/RM的请求,然后进行处理,实际的处理大都是交给不同的message processor处理器 来完成的。当处理器完成之后,再通过netty channel回写响应结果给客户端,这就是大致的通信流程。

 推荐阅读 


转载:https://blog.csdn.net/u012796139/article/details/112690648
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场