对java分布式系统通信的理解:

1.集群模式,将相同应用模块部署多份

2.业务拆分模式,将业务拆分成多个模块,并分别部署

3.存储分布式

由于分布式概念太大,我们可以缩小下讨论的范围。

 

以下分布式的狭义定义为:

业务拆分,但不限于水平拆分,而是拆分出底层模块,功能模块,上层模块等等。

一个系统功能繁多,且有层次依赖,那么我们需要将其分为很多模块,并分别部署 。

 

举例:

比如我们现在开发一个类似于钱包的系统,那么它会有如下功能模块:用户模块(用户数据),

应用模块(如手机充值等),业务模块(处理核心业务),交易模块(与银行发生交易),

前置模块(与客户端通信) 等等

我们会得到一个系统架构图:

 

为什么要分布式

1) 将系统功能模块化,且部署在不同的地方,对于底层模块,只要保持接口不变,

上层系统调用底层模块将不关心其具体实现,且底层模块做内部逻辑变更,上层系统

都不需要再做发布,可以极大限度的解耦合

2) 解耦合之后,可以复用共同的功能,且业务扩展更为方便,加快开发和发布的速度

3) 系统分开部署,充分利用硬件,可以提高系统性能

4) 减少数据库连接资源的消耗

 

分布式通信方案

场景:服务端与服务端的通信

方案1:基于socket短连接

方案2:基于socket长连接同步通信

方案3:基于socket长连接异步通信

 

tcp短连接通信方案

短连接:http短连接,或者socket短连接,是指每次客户端和服务端通信的时候,都要新建立一个socket连接,本次通信完毕后,立即关闭该连接,也就是说每次通信都需要开启一个新的连接 。

 

传输图如下:

 

io通信用mina实现

客户端示例代码:

NioSocketConnector connector = new NioSocketConnector();
connector.setConnectTimeoutMillis(CONNECT_TIMEOUT);
//设置读缓冲,传输的内容必须小于此缓冲
connector.getSessionConfig().setReadBufferSize(2048*2048);
//设置编码解码器
connector.getFilterChain().addLast("codec",
new ProtocolCodecFilter(new ObjectSerializationCodecFactory()));
//设置日志过滤器
connector.getFilterChain().addLast("logger", new LoggingFilter());
//设置Handler
connector.setHandler(new MyClientHandler());

//获取连接,该方法为异步执行
ConnectFuture future = connector.connect(new InetSocketAddress(
       HOSTNAME, PORT));
//等待连接建立
future.awaitUninterruptibly();
//获取session
IoSession session = future.getSession();

//等待session关闭
session.getCloseFuture().awaitUninterruptibly();
//释放connector
connector.dispose();

 

下面我们进行性能测试:

测试场景:

每个请求的业务处理时间110ms

100个线程并发测试,每个线程循环请求服务端

测试环境:

客户端服务器:

Cpu为4线程 2400mhz

服务端cpu: 4线程 3000Mhz

测试结果:

在经过10分钟测试之后,稳定情况下的tps

Tps:554左右

客户端Cpu:30%

服务端cpu:230%

 

该方案的优点:

程序实现起来简单

该方案的缺点:

    1. Socket发送消息时,需要先发送至socket缓冲区,因此系统为每个socket分配缓冲区

当缓冲不足时,就达到了最大连接数的限制

    2. 连接数大,也就意味着系统内核调用的越多,socket的accept和close调用

    3.每次通信都重新开启新的tcp连接,握手协议耗时间,tcp是三次握手

    4.tcp是慢启动,TCP 数据传输的性能还取决于 TCP 连接的使用期(age)。TCP 连接会随着时间进行自我“调谐”,起初会限制连接的最大速度,如果数据成功传输,会随着时间的推移提高传输的速度。这种调谐被称为 TCP 慢启动(slow start),用于防止因特网的突然过载和拥塞 。

 

tcp长连接同步通信

 

长连接同步的传输图

 

    一个socket连接在同一时间只能传递一个请求的信息只有等到response之后,第二个请求才能开始使用这个通道。

    为了提高并发性能,可以提供多个连接,建立一个连接池,连接被使用的时候标志为正在使用,使用完放回连接池,标识为空闲,这和jdbc连接池是一样的。

    假设后端服务器,tps是1000,即每秒处理业务数是1000。现在内网传输耗时是5毫秒,业务处理一次请求的时间为150毫秒,那么一次请求从客户端发起请求到得到服务端的响应,总共耗时150毫秒+5毫秒*2=160毫秒。

    如果只有一个连接通信,那么1秒内只能完成2次业务处理,即tps为2。如果要使tps达到1000,那么理论上需要500个连接,但是当连接数上升的时候,其性能却在下降,因此该方案将会降低网站的吞吐量。

 

实现挑战:

mina的session.write()和receive消息都是异步的,那么需要在主线程上阻塞以等待响应的到达。

 

连接池代码:

/**
* 空闲连接池
*/
private static BlockingQueue<Connection> idlePool = new LinkedBlockingQueue<Connection>();
   
/**
* 使用中的连接池
*/
public static BlockingQueue<Connection> activePool = new LinkedBlockingQueue<Connection>();

public static Connection getConn() throws InterruptedException{
   long time1 = System.currentTimeMillis();
   Connection connection = null;
   connection = idlePool.take();            
   activePool.add(connection);
   long time2 = System.currentTimeMillis();
   //log.info("获取连接耗时:"+(time2-time1));
   return connection;
}

 

客户端代码:

public TransInfo send(TransInfo info) throws InterruptedException {
   Result result = new Result();
   //获取tcp连接
   Connection connection = ConnectFutureFactory.getConnection(result);
   ConnectFuture connectFuture = connection.getConnection();
   IoSession session = connectFuture.getSession();
   session.setAttribute("result", result);
   //发送信息
   session.write(info);
   //同步阻塞获取响应
   TransInfo synGetInfo = result.synGetInfo();
   //此处并不是真正关闭连接,而是将连接放回连接池
   ConnectFutureFactory.close(connection,result);
   return synGetInfo;
}

 

阻塞获取服务端响应代码:

public synchronized TransInfo synGetInfo() {
   //等待消息返回
   //必须要在同步的情况下执行
   if (!done) {
       try {                    
           wait();
       } catch (InterruptedException e) {
           log.error(e.getMessage(), e);
       }
   }
   return info;
}

public synchronized void synSetInfo(TransInfo info) {
   this.info = info;
   this.done = true;
   notify();
}

 

测试场景:

每个请求的业务处理时间110ms

300个线程300个连接并发测试,每个线程循环请求服务端

测试环境:

客户端服务器:

Cpu为4线程 2400mhz

服务端cpu: 4线程 3000Mhz

测试结果:

在经过10分钟测试之后,稳定情况下的tps

Tps:2332左右

客户端Cpu:90%

服务端cpu:250%

从测试结果可以看出,当连接数足够大的时候,系统性能会降低,开启的tcp连接数越多,那么系统开销将会越大。 

 

tcp长连接异步通信

 

通信图:

    一个socket连接在同一时间内传输多次请求的信息,输入通道接收多条响应消息,消息是连续发出,连续收回的。

    业务处理和发消息是异步的,一个业务线程告诉通道发送消息后,不再占用通道,而是等待响应到达,而此时其它业务线程也可以往该连接通道发信息,这样可以充分利用通道来进行通信。

 

实现挑战

    该方案使编码变得复杂,如上图,请求request1,request2,request3顺序发出,但是服务端处理请求并不是排队的,而是并行处理的,有可能request3先于request1响应给客户端,那么一个request将无法找到他的response,这时候我们需要在request和response报文中添加唯一标识,如通信序列号,在一个通信通道里面保持唯一,那么可以根据序列号去获取对应的响应报文。

我的方案是:

1.客户端获取一个tcp连接

2.调用session.write()发送信息,并将消息的唯一序列号存入一个Result对象

result对象存入一个map 

3.同步阻塞获取结果,线程在result对象进行同步阻塞

4.接收消息,并通过唯一序列号从map里面获取result对象,并唤醒阻塞在result对象上的线程。

 

客户端发送消息示例代码:

public TransInfo send(TransInfo info) throws InterruptedException {
   Result result = new Result();
   result.setInfo(info);
   //获取socket连接
   ConnectFuture connectFuture = ConnectFutureFactory
       .getConnection(result);
   IoSession session = connectFuture.getSession();
   //将result放入ConcurrentHashMap
   ConcurrentHashMap<Long, Result> resultMap = (ConcurrentHashMap<Long, Result>)session.getAttribute("resultMap");
   resultMap.put(info.getId(), result);
   //发送消息
   session.write(info);
   //同步阻塞获取结果
   return result.synGetInfo();
}

 

同步阻塞和唤醒方法:

public synchronized TransInfo synGetInfo() {
   //等待消息返回
   //必须要在同步的情况下执行
   while (!done) {
       try {                    
           wait();
       } catch (InterruptedException e) {
           log.error(e.getMessage(), e);
       }
   }
   return info;
}

public synchronized void synSetInfo(TransInfo info) {
   this.info = info;
   this.done = true;
   notify();
}

 

接收消息示例代码:

public void messageReceived(IoSession session, Object message)
       throws Exception {
   TransInfo info = (TransInfo) message;    
   //根据唯一序列号从resultMap中获取result
   ConcurrentHashMap<Long, Result> resultMap = (ConcurrentHashMap<Long, Result>)session.getAttribute("resultMap");
   //移除result
   Result result = resultMap.remove(info.getId());        
   //唤醒阻塞线程
   result.synSetInfo(info);
}

 

测试场景:

每个请求的业务处理时间110ms

300个线程10个连接并发测试,每个线程循环请求服务端

测试环境:

客户端服务器:

Cpu为4线程 2400mhz

服务端cpu: 4线程 3000Mhz

测试结果:

在经过10分钟测试之后,稳定情况下的tps

Tps:2600左右

客户端Cpu:25%

服务端cpu:250%

经测试发现,异步通信可以用更少的tcp连接实现同样高效的通信,极大的减少了系统性能开销。

版权声明:本文为peke原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/peke/p/8599506.html