侵入式服务与非侵入式程序结构

服务器
通常情况下,对于一个后端服务器的结构是没法固定下来的,因为我们不知道服务的技术框架上面会搭建什么业务,结构随着业务的不同而不同。

通常情况下,对于一个后端服务器的结构是没法固定下来的,因为我们不知道服务的技术框架上面会搭建什么业务,结构随着业务的不同而不同。如果是这样的话,我们是不是就没法讨论和抽象出一个可以适用于大多数业务场景的服务器程序结构了呢?其实也未必,大多数服务会与其他服务或者客户端进行网络通信,那么这个服务一定包含网络通信模块。这样的话,网络通信模块将会是不同业务服务的通用部分。基于这一点,我们可以继续讨论。

[[321760]]

假设网络通信框架结构一定的情况下,根据通信数据是否从网络框架中流入流出,我们将服务器的结构分为侵入式和非侵入式两种。

非侵入式结构

非侵入式更简单一点,我们先来讨论它。所谓非侵入式,指的是一个服务中所有的通信或业务数据都在网络通信框架内部流动,也就是说没有外部数据源注入网络通信框架或从网络通信框架中流出。举个例子,一个 IM 服务的服务器,通常情况下,无论是单聊消息还是群聊消息,其核心业务本身的数据流都是在网络通信框架内部流动的。单聊时,A 用户给 B 用户发送一条消息,实际上消息流是从 A 用户的连接对象传递到 B 用户的连接对象上,然后通过 B 连接对象的发送方法发送出去。群聊也是一样,从一个用户的连接,同时发给其他多个用户的连接对象。无论是哪种情况,这些连接对象都是网络通信框架的内部结构。

 

 

 

 

非侵入式服务结构

侵入式结构

如果有外部消息流入网络通信模块或从网络通信模块流出,那么相当于有外部消息"侵入"了网络通信结构中,我们把这种服务器结构称之为侵入式服务结构。

 

 

 

 

侵入式服务器的结构除了网络通信组件外,其他组件的结构设计可以多种多样。我们来看两种通用的结构:

结构一:业务线程(或者叫数据源线程)将数据处理后交给网络通信组件发送

结构二:网络解包后需要将任务交给专门的业务线程去处理,处理完后需要再次通过网络通信组件发出去

结构一其实是结构二的后半部分,因此我们来重点讨论下结构二。

我们曾介绍过 one thread one loop 思想下的每个网络线程的基本结构:

 

  1. while (!m_bQuitFlag) 
  2.     epoll_or_select_func(); 
  3.  
  4.     handle_io_events(); 
  5.  
  6.     handle_other_things(); 

当 handle_io_events 收完网络数据后并解包,之后由于解包得到的任务处理逻辑比较耗时,此时我们需要把这些任务交给专门的业务线程去处理,业务线程可以是一组工作的消费者线程,我们可以将这些任务放在某个队列中,这样网络组件的线程(网络线程)是生产者,业务工作线程是消费者,我们可以使用互斥体、临界区(Windows)或条件变量等技术去协调生产者和消费者,这里也就是说会涉及到一个公共的队列系统。这是一种常用的实现,数据从网络组件流向其他组件(业务组件)。

接下来如果业务组件在处理完后,需要再次将处理后的数据进行网络通信,此时我们如何将处理后的数据由业务组件交给网络组件呢?这里一般有两种做法。

方法一

直接通过某些标示,如业务对应的 socket fd、sessionID 等找到这些数据对应的位于网络组件中 session 去将数据直接发出去。

例如,某个数据处理后需要发给所有用户,演示代码如下:

  1. void WebSocketSessionManager::pushInstrumentAndIndexIncrementData(const std::string& dataToPush) 
  2.     std::lock_guard<std::mutex> scoped_lock(m_mutexForSession); 
  3.     for (auto& session : m_mapSessions) 
  4.     { 
  5.         session.second->pushInstrumentAndIndexIncrementData(dataToPush); 
  6.     } 

上述代码中,dataToPush 是需要发给所有用户的数据,因此变量网络组件中记录的所有 session 对象并挨个发送之(Session 对象记录在 m_mapSessions 中)。

再例如,如果处理后的数据是发给某个用户的,演示代码如下:

  1. bool WebSocketSessionManager::pushOtherTypeDataToSingle(const std::string accountID, const std::string& type, const std::string& content, int64_t offset) 
  2.     bool found = false
  3.     std::lock_guard<std::mutex> scoped_lock(m_mutexForSession); 
  4.     //TODO: 每次都要遍历,太慢,优化之 
  5.     for (auto& session : m_mapSessions) 
  6.     { 
  7.         if (session.second->isAccountIDMatched(accountID)) 
  8.         { 
  9.             session.second->pushOtherTypeData(type, content, offset); 
  10.  
  11.             found = true
  12.         } 
  13.     } 
  14.  
  15.     if (!found) 
  16.     { 
  17.         LOGW("user accountId=%s is not found in sessions, type: %s, data: %s", accountID.c_str(), type.c_str(), content.c_str()); 
  18.         return false
  19.     } 
  20.      
  21.     return true

上述代码逻辑根据数据中的 accountID 是定位到具体的 session,然后将数据发送给该 session 对应的用户。

这种方法是业务组件处理完数据需要向网络线程传送数据常用的方法之一,但是这种方法存在如下两个缺点。

缺点一

这里从调用关系来看,实际上是业务线程调用网络线程相关的接口函数去发送数据的,也就是说,本质上是业务组件直接发起的网络发送数据操作。如果按功能来划分的话,发送数据应该数据网络线程的功能,业务线程不该去发送数据,因此这一般是不合理的。由于 session 对象的所属是网络线程(网络线程管理着这些 session 的生命周期),而这里业务线程直接操作了 session 对象,因此上述演示代码中,使用了 mutex(成员变量 m_mutexForSession)在相应的发送函数中对 session 记录集进行 m_mapSessions 保护。

这种方法的示意图如下:

 

 

 

 

这种方法虽然不太合理,却是很多的服务程序的做法。当业务组件调用这些发送方法时,通过 mutex 将这些 session 锁定。但是这里存在一个效率问题,我们以上面向所有用户发送数据的示例为例:

  1. 1 void WebSocketSessionManager::pushInstrumentAndIndexIncrementData(const std::string& dataToPush) 
  2. 2 { 
  3. 3    std::lock_guard<std::mutex> scoped_lock(m_mutexForSession); 
  4. 4    for (auto& session : m_mapSessions) 
  5. 5    { 
  6. 6        session.second->pushInstrumentAndIndexIncrementData(dataToPush); 
  7. 7    } 
  8. 8 } 

这段代码实际是调用每个 session 对象的 pushInstrumentAndIndexIncrementData 方法(代码第 6 行),如果 session 对象的 pushInstrumentAndIndexIncrementData 方法耗时比较长(耗时较长是相对的来说,实际开发中要避免这个函数耗时过长),由于记录 session 对象 m_mapSessions 此时正被业务模块(业务线程)使用,因此网络线程如果想修改 m_mapSessions 对象,必须等业务线程调用完 WebSocketSessionManager::pushInstrumentAndIndexIncrementData 函数,这可能会影响网络线程的执行效率。因此有些开发者会这么设计:

 

  1. void WebSocketSessionManager::pushInstrumentAndIndexIncrementData(const std::string& dataToPush) 
  2.     std::map<int64_t, BusinessSession*>    mapLocalSessions; 
  3.      
  4.     { 
  5.         std::lock_guard<std::mutex> scoped_lock(m_mutexForSession); 
  6.         //从m_mapSessions拷贝session对象指针去mapLocalSessions 
  7.         mapLocalSessions = m_mapSessions; 
  8.     } 
  9.      
  10.     //这里使用 mapLocalSessions,让网络线程可以继续操作m_mapSessions 
  11.     for (auto& session : mapLocalSessions) 
  12.     { 
  13.         session.second->pushInstrumentAndIndexIncrementData(dataToPush); 
  14.     } 

上述代码使用了一个临时变量 mapLocalSessions 复制了一份原来的 m_mapSessions 中记录的 session 指针,这样的话,m_mutexForSession 锁的粒度大幅度减小了,业务线程将 m_mapSessions 尽快释放出来了,网络线程可以很快使用 m_mapSessions。

然而,这个看似很不错的设计方案,却是存在严重的问题,记录在 m_mapSessions 和 mapLocalSessions 中的很多 session 指针都指向一个对象,倘若此时某个连接断开了,网络线程会销毁 m_mapSessions 中记录的 session 对象,让业务线程还可能拿着这个 session 对象的指针去继续操作(发数据),此时这个指针已经是一个野指针了,这样会导致我们的程序会崩溃。有的读者会说,mapLocalSessions 中记录的 session 对象不要使用原始指针,可以使用一个智能指针,但该智能指针不持有该 session 的生命周期,如下面的形式:

 

  1. std::map<int64_t, std::weak_ptr<BusinessSession>>    mapLocalSessions; 

这样虽然可以解决在绝对使用一个 session 对象时及时发现该 session 对象是否有效,但是倘若在使用某个 session 的过程中,如进入 session.second->pushInstrumentAndIndexIncrementData 函数后,session 被网络线程回收了,此时访问该 session 的任何成员变量都会导致程序访问一个非法的指针导致程序崩溃。

所以,在使用这种方法时,你千万不要使用这种减小锁的粒度的技术,这是不正确的。为了保证性能,一定要将 session.second->pushInstrumentAndIndexIncrementData 函数的实现尽量执行起来快一点。

缺点二

缺点二是方法一在如下场景下的致命问题:假设你的服务存在如下两条信息流,信息流一:业务组件产生的数据需要发送,网络线程本身与客户端或者下游服务交互后产生的数据也要发送,这两类数据如果发给同一个连接,但这两类数据有一定的顺序讲究。这下就糟糕了。因为这样的设计中,你的业务线程会间接使用某个 session 发数据,你的网络线程直接使用某个 session 发数据。这样相当于出现多线程同时调用 send 函数在同一个 socket 上发送了,这种情形下每个数据包不一定会出错,但是多个数据包之间的顺序就出错了。

我在做我们的交易系统行情推送服务时曾经就遇到过这样的问题,业务模块会从某个 kafka 主题中取出增量数据,然后侵入网络组件发给用户,但用户本身会发订阅命令给网络模块,网络模块会自己通过一个内部的 http 服务去查询得到一个全量数据推送给用户。用户收到增量数据会以全量数据为基础,对全量数据进行增删改,也就是说如果用户未收到全量数据之前,会丢弃其收到的增量数据。但是被丢弃的增量数据可能是有效的,因为被丢弃,导致用户收到全量数据后再利用新的增量数据去改造全量数据,此时改造后的增量数据已经不正确了。

这就是方法一不适用的场景,即侵入到网络组件的其他组件产生的数据有多个源,且多个源的有顺序要求。反过来说,如果侵入到网络组件产生的数据源只有一个数据源或者有多个数据源但数据源之间的数据没有顺序依赖,这种设计也是可以的。

不适用的场景示意图

 

 

 

 

那么对于有多个数据源但数据源之间的数据有顺序依赖,有没有办法继续使用方法一了呢?有的,你可以在多个数据源处理完数据后,交给一个专门将数据源排序的组件,再由排序组件统一调用网络组件的数据发送模块。需要注意的是,网络组件内部产生的需要发送的数据也要交给排序组件。示意图如下:

 

 

 

 

这种场景可以举一个例子,我们在做交易系统的行情推送服务时,由于推送的数据有多个来源,有的来源于 kafka 模块,有的来源于管理后台接口,有的来源于网络通信模块内部产生,最终这三类数据需要按一定的顺序发给用户,我就是采用上述示意图展示的结构来设计。其中排序组件使用了一个队列,不同数据源的数据按一定顺序进入队列中,排序组件从队列中挨个取出排好序的数据调用网络通信组件的数据发送模块来发送。

方法二

方法一是在业务组件里面直接调用网络组件的方法,有点越俎代庖之嫌。方法二是将业务组件需要发送的数据交给网络组件自己去发送。常用的实现方法是将对应的数据加入到数据所属的那个连接的网络线程中,再来看一眼这个结构:

 

  1. while (!m_bQuitFlag) 
  2.     epoll_or_select_func(); 
  3.  
  4.     handle_io_events(); 
  5.  
  6.     handle_other_things(); 

可以使用另外一个队列,业务组件将队列交给这个队列,然后告知对应的网络组件中的线程需要取任务执行。这个逻辑在前面介绍过了,即利用唤醒机制执行 handle_other_things 函数。

这里给出一种实现,业务组件调用

 

  1. void EventLoop::runInLoop(const Functor& cb) 
  2.     if (isInLoopThread()) 
  3.     { 
  4.         cb(); 
  5.     } 
  6.     else 
  7.     { 
  8.         queueInLoop(cb); 
  9.     } 

其中 cb 即需要执行的任务,由于业务线程和网络线程不是同一个线程,因此会执行 queueInLoop 函数,queueInLoop 的实现如下,这样任务被放到 pendingFunctors_ 容器中了,然后调用唤醒函数 wakeup()。

  1. void EventLoop::queueInLoop(const Functor& cb) 
  2.     { 
  3.         std::unique_lock<std::mutex> lock(mutex_); 
  4.         pendingFunctors_.push_back(cb); 
  5.     } 
  6.  
  7.     if (!isInLoopThread() || doingOtherTasks_) 
  8.     { 
  9.         wakeup(); 
  10.     } 

唤醒后的线程执行 handle_other_things() 函数,该函数从 pendingFunctors_ 中取出任务进行执行。

  1. void EventLoop::handle_other_things() 
  2.     std::vector<Functor> functors; 
  3.     doingOtherTasks_ = true
  4.  
  5.     { 
  6.         std::unique_lock<std::mutex> lock(mutex_); 
  7.         functors.swap(pendingFunctors_); 
  8.     } 
  9.  
  10.     for (size_t i = 0; i < functors.size(); ++i) 
  11.     { 
  12.         functors[i](); 
  13.     } 
  14.  
  15.     doingOtherTasks_ = false

通过这个流程,让网络组件本身去发送了业务组件交给它的数据。

希望读者能深刻的体会侵入式和非侵入式服务结构的特点和细节,以及侵入式结构中网络组件与业务组件交换数据的两种方法,根据实际的业务设计出高质量的服务框架来。

 

责任编辑:武晓燕 来源: 高性能服务器开发
相关推荐

2023-07-08 00:12:26

框架结构组件

2021-08-20 09:48:07

鸿蒙HarmonyOS应用

2024-02-21 15:30:56

2019-07-15 08:43:23

开源技术 工具

2021-12-26 23:34:00

微服务Istio压缩

2021-07-27 06:51:53

Istio 微服务Service Mes

2018-06-29 13:24:48

沙箱容器解决方案

2017-06-14 10:12:19

SophixAndroid热修复

2023-12-25 15:40:37

数据治理大数据GenAI

2015-04-03 09:31:02

AndroidWindows

2021-08-10 13:50:24

iOS

2021-09-02 10:00:42

鸿蒙HarmonyOS应用

2012-07-02 09:57:05

U盘病毒优盘病毒黑客

2010-07-05 21:49:27

2013-09-22 10:39:15

2024-04-01 00:20:00

AI科学

2010-09-15 14:47:47

CouchDBNoSQL

2012-12-13 14:15:52

2020-04-29 16:24:55

开发iOS技术
点赞
收藏

51CTO技术栈公众号