• 【网络】高级IO——Reactor版TCP服务器

【网络】高级IO——Reactor版TCP服务器

2025-04-30 16:00:08 0 阅读

1.什么是Reactor

Reactor 是一种应用在服务器端的开发模式(也有说法称 Reactor 是一种 IO 模式),目的是提高服务端程序的并发能力

它要解决什么问题呢?

传统的 thread per connection 用法中,线程在真正处理请求之前首先需要从 socket 中读取网络请求,而在读取完成之前,线程本身被阻塞,不能做任何事,这就导致线程资源被占用,而线程资源本身是很珍贵的,尤其是在处理高并发请求时。 

  而 Reactor 模式指出,在等待 IO 时,线程可以先退出,这样就不会因为有线程在等待 IO 而占用资源。但是这样原先的执行流程就没法还原了,因此,我们可以利用事件驱动的方式,要求线程在退出之前向 event loop 注册回调函数,这样 IO 完成时 event loop 就可以调用回调函数完成剩余的操作。

       所以说,Reactor 模式通过减少服务器的资源消耗,提高了并发的能力。当然,从实现角度上,事件驱动编程会更难写,难 debug 一些。

 1.1.餐厅里的Reactor模式

我们用“餐厅”类比的话,就像下图:

对于每个新来的顾客,前台都需要找到一个服务员和厨师来服务这个顾客。

  1. 服务员给出菜单,并等待点菜
  2. 顾客查看菜单,并点菜
  3. 服务员把菜单交给厨师,厨师照着做菜
  4. 厨师做好菜后端到餐桌上

   这就是传统的多线程服务器。每个顾客都有自己的服务团队(线程),在人少的情况下是可以良好的运作的。现在餐厅的口碑好,顾客人数不断增加,这时服务员就有点处理不过来了。

这时老板发现,每个服务员在服务完客人后,都要去休息一下,因此老板就说,“你们都别休息了,在旁边待命”。这样可能 10 个服务员也来得及服务 20 个顾客了。这也是“线程池”的方式,通过重用线程来减少线程的创建和销毁时间,从而提高性能。

  但是客人又进一步增加了,仅仅靠剥削服务员的休息时间也没有办法服务这么多客人。老板仔细观察,发现其实服务员并不是一直在干活的,大部分时间他们只是站在餐桌旁边等客人点菜。

  于是老板就对服务员说,客人点菜的时候你们就别傻站着了,先去服务其它客人,有客人点好的时候喊你们再过去。对应于下图:

最后,老板发现根本不需要那么多的服务员,于是裁了一波员,最终甚至可以只有一个服务员。

        这就是 Reactor 模式的核心思想:减少等待。当遇到需要等待 IO 时,先释放资源,而在 IO 完成时,再通过事件驱动 (event driven) 的方式,继续接下来的处理。从整体上减少了资源的消耗。

2.Reactor的由来

如果要让服务器服务多个客户端,那么最直接的方式就是为每一条连接创建线程。

    其实创建进程也是可以的,原理是一样的,进程和线程的区别在于线程比较轻量级些,线程的创建和线程间切换的成本要小些,为了描述简述,后面都以线程为例。

 处理完业务逻辑后,随着连接关闭后线程也同样要销毁了,但是这样不停地创建和销毁线程,不仅会带来性能开销,也会造成浪费资源,而且如果要连接几万条连接,创建几万个线程去应对也是不现实的。

     要这么解决这个问题呢?我们可以使用「资源复用」的方式。

        也就是不用再为每个连接创建线程,而是创建一个「线程池」,将连接分配给线程,然后一个线程可以处理多个连接的业务。

  不过,这样又引来一个新的问题,线程怎样才能高效地处理多个连接的业务?

        当一个连接对应一个线程时,线程一般采用「read -> 业务处理 -> send」的处理流程,如果当前连接没有数据可读,那么线程会阻塞在 read 操作上( socket 默认情况是阻塞 I/O),不过这种阻塞方式并不影响其他线程。

     但是引入了线程池,那么一个线程要处理多个连接的业务,线程在处理某个连接的 read 操作时,如果遇到没有数据可读,就会发生阻塞,那么线程就没办法继续处理其他连接的业务。

       要解决这一个问题,最简单的方式就是将 socket 改成非阻塞,然后线程不断地轮询调用 read 操作来判断是否有数据,这种方式虽然该能够解决阻塞的问题,但是解决的方式比较粗暴,因为轮询是要消耗 CPU 的,而且随着一个 线程处理的连接越多,轮询的效率就会越低。

    上面的问题在于,线程并不知道当前连接是否有数据可读,从而需要每次通过 read 去试探。

        那有没有办法在只有当连接上有数据的时候,线程才去发起读请求呢?答案是有的,实现这一技术的就是 I/O 多路复用。

     I/O 多路复用技术会用一个系统调用函数来监听我们所有关心的连接,也就说可以在一个监控线程里面监控很多的连接。

 我们熟悉的 select/poll/epoll 就是内核提供给用户态的多路复用系统调用,线程可以通过一个系统调用函数从内核中获取多个事件。 

select/poll/epoll 是如何获取网络事件的呢?

在获取事件时,先把我们要关心的连接传给内核,再由内核检测:

如果没有事件发生,线程只需阻塞在这个系统调用,而无需像前面的线程池方案那样轮训调用 read 操作来判断是否有数据。
如果有事件发生,内核会返回产生了事件的连接,线程就会从阻塞状态返回,然后在用户态中再处理这些连接对应的业务即可。

 

  • 当下开源软件能做到网络高性能的原因就是 I/O 多路复用吗? 

是的,基本是基于 I/O 多路复用,用过 I/O 多路复用接口写网络程序的同学,肯定知道是面向过程的方式写代码的,这样的开发的效率不高。

   于是,大佬们基于面向对象的思想,对 I/O 多路复用作了一层封装,让使用者不用考虑底层网络 API 的细节,只需要关注应用代码的编写。大佬们还为这种模式取了个让人第一时间难以理解的名字:Reactor 模式。

   Reactor 翻译过来的意思是「反应堆」,可能大家会联想到物理学里的核反应堆,实际上并不是的这个意思。

        这里的反应指的是「对事件反应」,也就是来了一个事件,Reactor 就有相对应的反应/响应。

   事实上,Reactor 模式也叫 Dispatcher 模式,我觉得这个名字更贴合该模式的含义,即 I/O 多路复用监听事件,收到事件后,根据事件类型分配(Dispatch)给某个进程 / 线程。

Reactor 模式主要由 Reactor 和处理资源池这两个核心部分组成,它俩负责的事情如下:

  • Reactor 负责监听和分发事件,事件类型包含连接事件、读写事件;
  • 处理资源池负责处理事件,如 read -> 业务逻辑 -> send;

Reactor 模式是灵活多变的,可以应对不同的业务场景,灵活在于:

  • Reactor 的数量可以只有一个,也可以有多个;
  • 处理资源池可以是单个进程 / 线程,也可以是多个进程 /线程;

将上面的两个因素排列组设一下,理论上就可以有 4 种方案选择:

方案具体使用进程还是线程,要看使用的编程语言以及平台有关:

  • 单 Reactor 单进程 / 线程;
  • 单 Reactor 多进程 / 线程;
  • 多 Reactor 单进程 / 线程;
  • 多 Reactor 多进程 / 线程;

    其中,「多 Reactor 单进程 / 线程」实现方案相比「单 Reactor 单进程 / 线程」方案,不仅复杂而且也没有性能优势,因此实际中并没有应用。

    剩下的 3 个方案都是比较经典的,且都有应用在实际的项目中:

  • 单 Reactor 单进程 / 线程;
  • 单 Reactor 多线程 / 进程;
  • 多 Reactor 多进程 / 线程;
  • Java 语言一般使用线程,比如 Netty;
  • C 语言使用进程和线程都可以,例如 Nginx 使用的是进程,Memcache 使用的是线程。
  • 接下来,分别介绍这三个经典的 Reactor 方案。

    2.1.单 Reactor 单进程 / 线程

    一般来说,C 语言实现的是「单 Reactor 单进程」的方案,因为 C 语编写完的程序,运行后就是一个独立的进程,不需要在进程中再创建线程。

    我们来看看「单 Reactor 单进程」的方案示意图:

可以看到进程里有 Reactor、Acceptor、Handler 这三个对象:

  • Reactor 对象的作用是监听和分发事件;
  • Acceptor 对象的作用是获取连接;
  • Handler 对象的作用是处理业务;
  • 对象里的 select、accept、read、send 是系统调用函数,dispatch 和 「业务处理」是需要完成的操作,其中 dispatch 是分发事件操作。

    接下来,介绍下「单 Reactor 单进程」这个方案:

  • Reactor 对象通过 select (IO 多路复用接口) 监听事件,收到事件后通过 dispatch 进行分发,具体分发给 Acceptor 对象还是 Handler 对象,还要看收到的事件类型;
  • 如果是连接建立的事件,则交由 Acceptor 对象进行处理,Accep
  • tor 对象会通过 accept 方法 获取连接,并创建一个 Handler 对象来处理后续的响应事件;
  • 如果不是连接建立事件, 则交由当前连接对应的 Handler 对象来进行响应;
  • Handler 对象通过 read -> 业务处理 -> send 的流程来完成完整的业务流程。
  • 单 Reactor 单进程的方案因为全部工作都在同一个进程内完成,所以实现起来比较简单,不需要考虑进程间通信,也不用担心多进程竞争。
  • 但是,这种方案存在 2 个缺点:

  • 第一个缺点,因为只有一个进程,无法充分利用 多核 CPU 的性能;
  • 第二个缺点,Handler 对象在业务处理时,整个进程是无法处理其他连接的事件的,如果业务处理耗时比较长,那么就造成响应的延迟;
  • 所以,单 Reactor 单进程的方案不适用计算机密集型的场景,只适用于业务处理非常快速的场景。

    Redis 是由 C 语言实现的,它采用的正是「单 Reactor 单进程」的方案,因为 Redis 业务处理主要是在内存中完成,操作的速度是很快的,性能瓶颈不在 CPU 上,所以 Redis 对于命令的处理是单进程的方案。

     2.2.单 Reactor 多线程 / 多进程

    如果要克服「单 Reactor 单线程 / 进程」方案的缺点,那么就需要引入多线程 / 多进程,这样就产生了单 Reactor 多线程/ 多进程的方案。

    闻其名不如看其图,先来看看「单 Reactor 多线程」方案的示意图如下

    多进程

详细说一下这个方案:

  • Reactor 对象通过 select (IO 多路复用接口) 监听事件,收到事件后通过 dispatch 进行分发,具体分发给 Acceptor 对象还是 Handler 对象,还要看收到的事件类型;
  • 如果是连接建立的事件,则交由 Acceptor 对象进行处理,Acceptor 对象会通过 accept 方法 获取连接,并创建一个 Handler 对象来处理后续的响应事件;
  • 如果不是连接建立事件, 则交由当前连接对应的 Handler 对象来进行响应

    上面的三个步骤和单 Reactor 单线程方案是一样的,接下来的步骤就开始不一样了:

  • Handler 对象不再负责业务处理,只负责数据的接收和发送,Handler 对象通过 read 读取到数据后,会将数据发给子线程里的 Processor 对象进行业务处理;

  • 子线程里的 Processor 对象就进行业务处理,处理完后,将结果发给主线程中的 Handler 对象,接着由 Handler 通过 send 方法将响应结果发送给 client;

  • 单 Reator 多线程的方案优势在于能够充分利用多核 CPU 的能,那既然引入多线程,那么自然就带来了多线程竞争资源的问题。

       例如,子线程完成业务处理后,要把结果传递给主线程的 Reactor 进行发送,这里涉及共享数据的竞争。

            要避免多线程由于竞争共享资源而导致数据错乱的问题,就需要在操作共享资源前加上互斥锁,以保证任意时间里只有一个线程在操作共享资源,待该线程操作完释放互斥锁后,其他线程才有机会操作共享数据。

聊完单 Reactor 多线程的方案,接着来看看单 Reactor 多进程的方案   

  • 事实上,单 Reactor 多进程相比单 Reactor 多线程实现起来很麻烦,主要因为要考虑子进程 <-> 父进程的双向通信,并且父进程还得知道子进程要将数据发送给哪个客户端。
  •    而多线程间可以共享数据,虽然要额外考虑并发问题,但是这远比进程间通信的复杂度低得多,因此实际应用中也看不到单 Reactor 多进程的模式。

       另外,「单 Reactor」的模式还有个问题,因为一个 Reactor 对象承担所有事件的监听和响应,而且只在主线程中运行,在面对瞬间高并发的场景时,容易成为性能的瓶颈的地方。

2.3.多 Reactor 多进程 / 线程

要解决「单 Reactor」的问题,就是将「单 Reactor」实现成「多 Reactor」,这样就产生了第 多 Reactor 多进程 / 线程的方案。

老规矩,闻其名不如看其图。多 Reactor 多进程 / 线程方案的示意图如下(以线程为例):

方案详细说明如下:

  • 主线程中的 MainReactor 对象通过 select 监控连接建立事件,收到事件后通过 Acceptor 对象中的 accept 获取连接,将新的连接分配给某个子线程;
  • 子线程中的 SubReactor 对象将 MainReactor 对象分配的连接加入 select 继续进行监听,并创建一个 Handler 用于处理连接的响应事件。
  • 如果有新的事件发生时,SubReactor 对象会调用当前连接对应的 Handler 对象来进行响应。
  • Handler 对象通过 read -> 业务处理 -> send 的流程来完成完整的业务流程。
  • 多 Reactor 多线程的方案虽然看起来复杂的,但是实际实现时比单 Reactor 多线程的方案要简单的多,原因如下:

  • 主线程和子线程分工明确,主线程只负责接收新连接,子线程负责完成后续的业务处理。
  • 主线程和子线程的交互很简单,主线程只需要把新连接传给子线程,子线程无须返回数据,直接就可以在子线程将处理结果发送给客户端。

    大名鼎鼎的两个开源软件 Netty 和 Memcache 都采用了「多 Reactor 多线程」的方案。

            采用了「多 Reactor 多进程」方案的开源软件是 Nginx,不过方案与标准的多 Reactor 多进程有些差异。

      具体差异表现在主进程中仅仅用来初始化 socket,并没有创建 mainReactor 来 accept 连接,而是由子进程的 Reactor 来 accept 连接,通过锁来控制一次只有一个子进程进行 accept(防止出现惊群现象),子进程 accept 新连接后就放到自己的 Reactor 进行处理,不会再分配给其他子进程。

3.实现单 Reactor 单进程版本的TCP服务器

接下来我们就要来实现一个单 Reactor 单进程版本的TCP服务器

首先我们需要下面这些文件

这个Socket.hpp,nocopy.hpp,Epoller.hpp都是我们封装好了的,我们直接使用就行了,接下来我们只需要编写tcpserver.hpp和main.cc

3.1.Connection类

    承接上一节中的 epoll 服务器:现在的问题是,来自用户的数据可能会被 TCP 协议拆分成多个报文,那么服务器怎么才能知道什么时候最后一个小报文被接收了呢?要保证完整地读取客户端发送的数据,服务器需要将这次读取到的数据保存起来,对它们进行一定的处理(报文可能会有报头,以解决粘包问题),最后将它们拼接起来,再向上层应用程序交付。

  问题是 Recver 中的缓冲区 buffer 是一个局部变量,每次循环都会重置。而服务端可能会有成百上千个来自客户端建立连接后打开的文件描述符,这无法保证为每个文件描述符都保存本轮循环读取的数据。

    解决办法是为套接字文件描述符建立独立的接收和发送缓冲区,因为套接字是基于连接的,所以用一个名为 Connection 的类来保存所有和连接相关的属性,例如文件描述符,收发缓冲区,以及对文件描述符的操作(包括读、写和异常操作),所以要设置三个回调函数以供后续在不同的分支调用,最后还要设置一个回指指针,它将会保存服务器对象的地址,到后面会介绍它的用处。

​
#pragma once
#include
#include
#include
#include
 
class Connection;
using func_t =std::function)>;
 
class Connection
{
 
private:
int _sock;
std::string _inbuffer;//这里来当输入缓冲区,但是这里是有缺点的,它不能处理二进制流
std::string _outbuffer;
 
func_t _recv_cb;//读回调函数
func_t _send_cb;//写回调函数
func_t _except_cd;//
 
//添加一个回指指针
std::shared_ptr _tcp_server_ptr;
};
class TcpServer
{
 
};
 
​

 Connection结构中除了包含文件描述符和其对应的读回调、写回调和异常回调外,还包含一个输入缓冲区_inbuffer、一个输出缓冲区_outbuffer以及一个回指指针_tcp_setver_ptr

   当某个文件描述符的读事件就绪时,调用recv函数读取客户端发来的数据,但并不能保证读到了一个完整报文,因此需要将读取到的数据暂时存放到该文件描述符对应的_inBuffer中,当_inBuffer中可以分离出一个完整的报文后再将其分离出来进行数据处理,_inBuffer本质就是用来解决粘包问题的 

当处理完一个报文请求后,需将响应数据发送给客户端,但并不能保证底层TCP的发送缓冲区中有足够的空间写入,因此需将要发送的数据暂时存放到该文件描述符对应的_outBuffer中,当底层TCP的发送缓冲区中有空间,即写事件就绪时,再依次发送_outBuffer中的数据

    Connection结构中设置回指指针_svrPtr,便于快速找到TcpServer对象,因为后续需要根据Connection结构找到这个TcpServer对象。如上层业务处理函数NetCal函数向_outBuffer输出缓冲区递交数据后,需通过Connection中的回指指针,"提醒"TcpServer进行处理

Connection结构中需提供一个管理回调的成员函数,便于外部对回调进行设置

3.2.TcpServer类

按照之前的经验,我们很快就能写出下面这个

#include  // 包含shared_ptr和unique_ptr等智能指针的头文件  
#include  // 包含unordered_map的头文件  
  
class TcpServer  
{  
public:  
    // 构造函数,初始化TCP服务器  
    // 接收一个端口号作为参数,用于创建监听套接字,并初始化事件轮询器  
    TcpServer(uint16_t port)  
        : _port(port), // 存储端口号  
          _listensock_ptr(new Sock()), // 创建一个Sock对象用于监听,并使用shared_ptr管理  
          _epoller_ptr(new Epoller()) // 创建一个Epoller对象用于事件轮询,并使用shared_ptr管理  
    {  
        _listensock_ptr->Socket(); // 调用Sock的Socket方法创建套接字  
        _listensock_ptr->Bind(_port); // 绑定端口号  
        _listensock_ptr->Listen(); // 开始监听  
  
        // 注意:这里可能还需要将监听套接字添加到事件轮询器中,但代码中没有显示  
    }  
  
    // 初始化方法,可以在这里添加额外的初始化逻辑  
    // 但从提供的代码来看,这个方法目前是空的  
    void Init()  
    {  
        // 可以在这里添加初始化代码  
    }  
  
    // 启动方法,用于启动服务器的事件循环  
    // 但从提供的代码来看,这个方法目前是空的  
    // 通常,这里会包含启动事件轮询器的逻辑  
    void Start()  
    {  
        // 启动事件轮询器,开始处理网络事件  
        // 注意:实际代码中需要实现这部分逻辑  
    }  
  
    // 析构函数,用于清理资源  
    // 注意:由于使用了shared_ptr,这里的资源清理将是自动的  
    // 但如果还有其他需要手动清理的资源(如文件描述符等),则应该在这里处理  
    ~TcpServer()  
    {  
        // 析构函数会自动调用shared_ptr的析构,从而销毁Sock和Epoller对象  
        // 如果需要,可以在这里添加额外的清理代码  
    }  
  
private:  
    uint16_t _port; // 存储服务器监听的端口号  
    std::shared_ptr _epoller_ptr; // 事件轮询器的智能指针  
    std::unordered_map> _connections; // 存储连接的哈希表,键为套接字描述符,值为Connection对象的智能指针  
    std::shared_ptr _listensock_ptr; // 监听套接字的智能指针  
};

这里回答一个问题

  • 当服务器开始运行时,一定会有大量的Connection结构体对象需要被new出来,那么这些结构体对象需不需要被管理呢?

 当然是需要的,所以在服务器类里面,定义了一个哈希表_connections,用sock来作为哈希表的键值,sock对应的结构体connection和sock一起作为键值对,也就是哈希桶中存储的值(存储键值对),今天是不会出现哈希冲突的,所以每个键值下面的哈希桶只会挂一个键值对,即一个.

        初始化服务器时,第一个需要被添加到哈希表中的sock,一定是listensock,所以在init方法中,先把listensock添加到哈希表里面,添加的同时还要传该listensock所对应的关心事件的方法,对于listensock来说,只需要关注读方法即可,其他两个方法设为nullptr即可。

接下来是使用ET模式的,所以我们要实施下面这三点

相比于LT模式,关于ET(边缘触发)模式的使用,确实需要关注这几个关键点:

        1.设置EPOLLET标志:在将文件描述符(如socket)添加到epoll实例时,你需要通过epoll_event结构体中的events字段设置EPOLLET标志,以启用边缘触发模式。这告诉epoll,你希望在该文件描述符的状态从非就绪变为就绪时只接收一次事件通知。
        2.将socket文件描述符设置为非阻塞:由于ET模式要求你能够在一个事件通知中尽可能多地处理数据,直到没有更多数据可读,因此将socket设置为非阻塞模式是非常重要的。这允许你的read调用在没有数据可读时立即返回EAGAIN或EWOULDBLOCK,而不是阻塞等待。
        3.循环调用read直到返回EAGAIN或EWOULDBLOCK:在接收到一个ET模式的事件通知后,你需要在一个循环中调用read函数,不断尝试从socket中读取数据,直到read返回EAGAIN或EWOULDBLOCK。这表示当前没有更多数据可读,你可以安全地继续等待下一个事件通知。

为了方便使用,我们将设置文件描述符为非阻塞的代码封装到set_non_blocking函数里面去了

TcpServer类

class TcpServer : public nocopy
{
    static const int num = 64;
 
public:
    TcpServer(uint16_t port) : _port(port),
                               _listensock_ptr(new Sock()),
                               _epoller_ptr(new Epoller()),
                               _quit(true)
    {
        _listensock_ptr->Socket();
        set_non_blocking(_listensock_ptr->Fd()); // 设置listen文件描述符为非阻塞
        _listensock_ptr->Bind(_port);
        _listensock_ptr->Listen();
    }
    ~TcpServer()
    {
    }
    // 设置文件描述符为非阻塞
    int set_non_blocking(int fd)
    {
        int flags = fcntl(fd, F_GETFL, 0);
        if (flags == -1)
        {
            perror("fcntl: get flags");
            return -1;
        }
        if (fcntl(fd, F_SETFL, flags | O_NONBLOCK) == -1)
        {
            perror("fcntl: set non-blocking");
            return -1;
        }
        return 0;
    }
 
    void Init()
    {
    }
    void Start()
    {
        _quit = false;
        // 将listen套接字添加到epoll中->将listensock和他关心的事件,添加到内核的epoll模型中的红黑树里面
        // 1.将listensock添加到红黑树
        _epoller_ptr->EpollUpDate(EPOLL_CTL_ADD, _listensock_ptr->Fd(), (EPOLLIN | EPOLLET)); // 注意这里的EPOLLET设置了ET模式
        // 设置listen文件描述符为非阻塞,这个在初始化已经完成了
        struct epoll_event revs[num]; // 专门用来处理事件的
        while (!_quit)
        {
            int n=_epoller_ptr->EpollerWait(revs,num);
            for(int i=0;i _epoller_ptr;
    std::unordered_map> _connections;
    std::shared_ptr _listensock_ptr;
    bool _quit;
};

3.3.Connection的真正用处 

写到这里,我们发现我们这个代码和之前的不是差不多吗?但事实上,现在才到关键的地方!! 

我们在上面提及:

        当某个文件描述符的读事件就绪时,调用recv函数读取客户端发来的数据,但并不能保证读到了一个完整报文,因此需要将读取到的数据暂时存放到该文件描述符对应的_inBuffer中,当_inBuffer中可以分离出一个完整的报文后再将其分离出来进行数据处理,_inBuffer本质就是用来解决粘包问题的

        当处理完一个报文请求后,需将响应数据发送给客户端,但并不能保证底层TCP的发送缓冲区中有足够的空间写入,因此需将要发送的数据暂时存放到该文件描述符对应的_outBuffer中,当底层TCP的发送缓冲区中有空间,即写事件就绪时,再依次发送_outBuffer中的数据

        写到这里,我们需要理解,我们不仅仅需要将listen套接字加入到我们的epoll的红黑树里面,我还需要将listen套接字建立一个Connection对象,将listen套接字加入到Connection中,同时还要即要将放到我们的unordered_map对象_connections里面去。只要我们把Connection对象管理好了,我们的连接就管理好了。

所以,我们现在需要重新编写一下我们的连接类——Connection类

Connection类

class Connection
{
public:
    Connection(int sock, std::shared_ptr tcp_server_ptr) : _sock(sock), _tcp_server_ptr(tcp_server_ptr)
    {
    }
    ~Connection()
    {
    }
    void setcallback(func_t recv_cb, func_t send_cb, func_t except_cb)
    {
        _recv_cb = recv_cb;
        _send_cb = send_cb;
        _except_cd = except_cb;
    }
 
private:
    int _sock;
    std::string _inbuffer; // 这里来当输入缓冲区,但是这里是有缺点的,它不能处理二进制流
    std::string _outbuffer;
 
    func_t _recv_cb;   // 读回调函数
    func_t _send_cb;   // 写回调函数
    func_t _except_cd; //
 
    // 添加一个回指指针
    std::shared_ptr _tcp_server_ptr;
  };

现在我们就需要来实现我们上面的内容了

void AddConnection(int sock, uint32_t event, func_t recv_cb, func_t send_cb, func_t except_cb,
                                                        std::string clientip="0.0.0.0",uint16_t clientport=0)
    {
        
        // 1.给listen套接字创建一个Connection对象
        std::shared_ptr new_connection = std::make_shared(sock, std::shared_ptr(this)); // 创建Connection对象
        new_connection->setcallback(recv_cb, send_cb, except_cb);
     
 
        // 2.添加到_connections里面去
        _connections.insert(std::make_pair(sock, new_connection));
 
        
 
        // 将listen套接字添加到epoll中->将listensock和他关心的事件,添加到内核的epoll模型中的红黑树里面
        // 3.将listensock添加到红黑树
        _epoller_ptr->EpollUpDate(EPOLL_CTL_ADD, sock, event); // 注意这里的EPOLLET设置了ET模式
 
        std::cout << "add a new connection success,sockfd:" << sock << std::endl;
    }

正如上面所说,这个函数完成了三件事情。

  • 1.给listen套接字创建一个Connection对象
  • 2.添加到_connections里面去
  • 3.将listensock添加到红黑树

接下来我们就可以修改我们的Init函数

init函数

 void Init()
    {
         _listensock_ptr->Socket();
        set_non_blocking(_listensock_ptr->Fd()); // 设置listen文件描述符为非阻塞
        _listensock_ptr->Bind(_port);
        _listensock_ptr->Listen();
        AddConnection(_listensock_ptr->Fd(),(EPOLLIN|EPOLLET),nullptr,nullptr,nullptr);//暂时设置成nullptr
    }

3.4.Dispatcher——事件派发器

我们在这里将Start函数更名为Loop函数,并且创建一个新函数Dispatcher

bool IsConnectionSafe(int fd)
    {
        auto iter = _connections.find(fd);
        if (iter == _connections.end())
        {
            return false;
        }
        else
        {
            return true;
        }
    }
    void Dispatcher() // 事件派发器
    {
        int n = _epoller_ptr->EpollerWait(revs, num); // 获取已经就绪的事件
        for (int i = 0; i < num; i++)
        {
            uint32_t events = revs[i].events;
            int sock = revs[i].data.fd;
            // 如果出现异常,统一转发为读写问题,只需要处理读写就行
            if (events & EPOLLERR) // 出现错误了
            {
                events |= (EPOLLIN | EPOLLOUT);
            }
            if (events & EPOLLHUP)
            {
                events |= (EPOLLIN | EPOLLOUT);
            }
            // 只需要处理读写就行
            if (events & EPOLLIN&&IsConnectionSafe(sock)) // 读事件就绪
            {
                if(_connections[sock]->_recv_cb)
                _connections[sock]->_recv_cb(_connections[sock]);
 
            }
            if (events & EPOLLOUT&&IsConnectionSafe(sock)) // 写事件就绪
            {
                if(_connections[sock]->_send_cb)
                _connections[sock]->_send_cb(_connections[sock]);
            }
        }
    }
    void Loop()
    {
        _quit = false;
 
        while (!_quit)
        {
            Dispatcher();
        }
        _quit = true;
    }

   事件派发器是真正服务器要开始运行了,服务器会将就绪的每个连接都进行处理,首先如果连接不在哈希表中,那就说明这个连接中的sock还没有被添加到epoll模型中的红黑树,不能直接进行处理,需要先添加到红黑树中,然后让epoll_wait来拿取就绪的连接再告知程序员,这个时候再进行处理,这样才不会等待,而是直接进行数据拷贝。

      Loop中处理就绪的事件的方法非常非常的简单,如果该就绪的fd关心的是读事件,那就直接调用该sock所在连接结构体内部的读方法即可,如果是写事件那就调用写方法即可。有人说那如果fd关心异常事件呢?其实异常事件大部分也都是读事件,不过也有写事件,所以处理异常的逻辑我们直接放到读方法和写方法里面即可,当有异常事件到来时,直接去对应的读方法或写方法里面执行对应的逻辑即可。

以下是一些可能触发 EPOLLERR 事件的情况的示例:

  • 1.连接错误:当使用非阻塞套接字进行连接时,如果连接失败,套接字的 epoll 事件集中将包含 EPOLLERR 事件。可以通过检査 events 字段中是否包含 EPOLLERR 来处理连接错误。

    2.接收错误:在非阻塞套接字上进行读取操作时,如果发生错误,例如对方关闭了连接或者接收缓冲区溢出,套接字的 epol 事件集中将包含 EPOLLERR 事件。
    3.发送错误:在非阻塞套接字上进行写入操作时,如果发生错误,例如对方关闭了连接或者发送缓冲区溢出,套接字的 epol 事件集中将包含 EPOLLERR 事件。

  • 4.文件操作错误:当使用 epol 监听文件描述符时,如果在读取或写入文件时发生错误,文件描述符的 epol 事件集中将包含 EPOLLERR 事件。

需要注意的是,EPOLLERR 事件通常与 EPOLLIN 或 EPOLLOUT 事件一起使用。当发生 EPOLLERR 事件时,通常也会同时发生 EPOLLIN 或EPOLLOUT 事件..

          假设某个异常事件发生了,那么这个异常事件会自动被内核设置到epoll_wait返回的事件集中,这个异常事件一定会和一个sock关联,比如客户端和服务器用sock通信着,突然客户端关闭连接,那么服务器的sock上原本关心着读事件,此时内核会自动将异常事件设置到该sock关心的事件集合里,在处理sock关心的读事件时,读方法会捎带处理掉这个异常事件,处理方式为服务器关闭通信的sock,因为客户端已经把连接断开了,服务器没必要维护和这个客户端的连接了,服务器也断开就好,这样的逻辑在读方法里面就可以实现。

3.5.回调函数

我们看上面的事件派发器,最后都是派发给_send_cb和_recv_cb函数,这两个函数我们还没有设置呢!所以我们需要来设置一下

 
 void Init()
    {
        _listensock_ptr->Socket();
        set_non_blocking(_listensock_ptr->Fd()); // 设置listen文件描述符为非阻塞
        _listensock_ptr->Bind(_port);
        _listensock_ptr->Listen();
        AddConnection(_listensock_ptr->Fd(), (EPOLLIN | EPOLLET),
                      std::bind(&TcpServer::Accepter, this, std::placeholders::_1), nullptr, nullptr); // 暂时设置成nullptr
    }
    void Accepter(std::shared_ptr conection)
    {
        while (1)
        {
            struct sockaddr_in peer;
            socklen_t len=sizeof(peer);
            int sock=accept(conection->Getsock(),(sockaddr*)&peer,&len);
            if(sock>0)
            {
                set_non_blocking(sock);//设置非阻塞
               AddConnection (sock,EPOLLIN,nullptr,nullptr,nullptr);
            }
            else{
                if(errno==EWOULDBLOCK) break;
                else if(errno==EINTR) break;
                else break;
 
            }
            
        }
    }
  1.     在代码实现上,给AddConnection传参时,用到了一个C++11的知识,就是bind绑定的使用,一般情况下,如果你将包装器包装的函数指针类型传参给包装器类型时,是没有任何问题的,因为包装器本质就是一个仿函数,内部调用了被包装的对象的方法,所以传参是没有任何问题的。
  2.   但如果你要是在类内传参,那就有问题了,会出现类型不匹配的问题,这个问题真的很恶心,而且这个问题一报错就劈里啪啦的报一大堆错,因为function是模板,C++报错最恶心的就是模板报错,一报错人都要炸了。话说回来,为什么是类型不匹配呢?因为在类内调用类内方法时,其实是通过this指针来调用的,如果你直接将Accepter方法传给AddConnection,两者类型是不匹配的,因为Accepter的第一个参数是this指针,正确的做法是利用包装器的适配器bind来进行传参,bind将Accepter进行绑定,前两个参数为绑定的对象类型 和 给绑定的对象所传的参数,因为Accepter第一个参数是this指针,所以第一个参数就可以固定传this,后面的一个参数不应该是现在传,而应该是调用Accepter方法的时候再传,只有这样才能在类内将类成员函数指针传给包装器类型。

  3.  不过吧还有一种不常用的方法,就是利用lambda表达式来进行传参,lambda可以捕捉上下文的this指针,然后再把lambda类型传给包装器类型,这种方式不常用,用起来也怪别扭的,function和bind是适配模式,两者搭配在一起用还是更顺眼一些,lambda这种方式了解一下就好。

为了演示效果,我们写了一个打印函数来展示!

    void Accepter(std::shared_ptr conection)
    {
        while (1)
        {
            struct sockaddr_in peer;
            socklen_t len=sizeof(peer);
            int sock=accept(conection->Getsock(),(sockaddr*)&peer,&len);
            if(sock>0)
            {
                //获取客户端信息
                uint16_t clientport=ntohs(peer.sin_port);
                char buffer[128];
                inet_ntop(AF_INET,&(peer.sin_addr),buffer,sizeof(buffer));
                std::cout<<"get a new client from:"<Getsock()<Getsock()<<" ";
        }
        std::cout<

tcpserver.hpp 

#pragma once
#include 
#include 
#include 
#include 
#include 
 
#include "Socket.hpp"
#include "Epoller.hpp"
#include "nocopy.hpp"
 
class Connection;
using func_t = std::function)>;
class TcpServer;
 
class Connection
{
public:
    Connection(int sock, std::shared_ptr tcp_server_ptr) : _sock(sock), _tcp_server_ptr(tcp_server_ptr)
    {
    }
    ~Connection()
    {
    }
    void setcallback(func_t recv_cb, func_t send_cb, func_t except_cb)
    {
        _recv_cb = recv_cb;
        _send_cb = send_cb;
        _except_cb = except_cb;
    }
    int Getsock()
    {
        return _sock;
    }
 
private:
    int _sock;
    std::string _inbuffer; // 这里来当输入缓冲区,但是这里是有缺点的,它不能处理二进制流
    std::string _outbuffer;
 
public:
    func_t _recv_cb;   // 读回调函数
    func_t _send_cb;   // 写回调函数
    func_t _except_cb; //
 
    // 添加一个回指指针
    std::shared_ptr _tcp_server_ptr;
};
class TcpServer : public nocopy
{
    static const int num = 64;
 
public:
    TcpServer(uint16_t port) : _port(port),
                               _listensock_ptr(new Sock()),
                               _epoller_ptr(new Epoller()),
                               _quit(true)
    {
    }
    ~TcpServer()
    {
    }
    // 设置文件描述符为非阻塞
    int set_non_blocking(int fd)
    {
        int flags = fcntl(fd, F_GETFL, 0);
        if (flags == -1)
        {
            perror("fcntl: get flags");
            return -1;
        }
        if (fcntl(fd, F_SETFL, flags | O_NONBLOCK) == -1)
        {
            perror("fcntl: set non-blocking");
            return -1;
        }
        return 0;
    }
 
    void Init()
    {
        _listensock_ptr->Socket();
        set_non_blocking(_listensock_ptr->Fd()); // 设置listen文件描述符为非阻塞
        _listensock_ptr->Bind(_port);
        _listensock_ptr->Listen();
        AddConnection(_listensock_ptr->Fd(), (EPOLLIN | EPOLLET),
                      std::bind(&TcpServer::Accepter, this, std::placeholders::_1), nullptr, nullptr); // 暂时设置成nullptr
    }
    void Accepter(std::shared_ptr conection)
    {
        while (1)
        {
            struct sockaddr_in peer;
            socklen_t len=sizeof(peer);
            int sock=accept(conection->Getsock(),(sockaddr*)&peer,&len);
            if(sock>0)
            {
                //获取客户端信息
                uint16_t clientport=ntohs(peer.sin_port);
                char buffer[128];
                inet_ntop(AF_INET,&(peer.sin_addr),buffer,sizeof(buffer));
                std::cout<<"get a new client from:"<Getsock()<Getsock()<<" ";
        }
        std::cout< new_connection = std::make_shared(sock, std::shared_ptr(this)); // 创建Connection对象
        new_connection->setcallback(recv_cb, send_cb, except_cb);
 
        // 2.添加到_connections里面去
        _connections.insert(std::make_pair(sock, new_connection));
 
        // 将listen套接字添加到epoll中->将listensock和他关心的事件,添加到内核的epoll模型中的红黑树里面
        // 3.将listensock添加到红黑树
        _epoller_ptr->EpollUpDate(EPOLL_CTL_ADD, sock, event); // 注意这里的EPOLLET设置了ET模式
 
        std::cout<<"add a new connection success,sockfd:"<EpollerWait(revs, num); // 获取已经就绪的事件
        for (int i = 0; i < num; i++)
        {
            uint32_t events = revs[i].events;
            int sock = revs[i].data.fd;
            // 如果出现异常,统一转发为读写问题,只需要处理读写就行
            if (events & EPOLLERR) // 出现错误了
            {
                events |= (EPOLLIN | EPOLLOUT);
            }
            if (events & EPOLLHUP)
            {
                events |= (EPOLLIN | EPOLLOUT);
            }
            // 只需要处理读写就行
            if (events & EPOLLIN && IsConnectionSafe(sock)) // 读事件就绪
            {
                if (_connections[sock]->_recv_cb)
                    _connections[sock]->_recv_cb(_connections[sock]);
            }
            if (events & EPOLLOUT && IsConnectionSafe(sock)) // 写事件就绪
            {
                if (_connections[sock]->_send_cb)
                    _connections[sock]->_send_cb(_connections[sock]);
            }
        }
    }
    void Loop()
    {
        _quit = false;
 
        while (!_quit)
        {
            Dispatcher();
            PrintConnection();
        }
        _quit = true;
    }
 
private:
    uint16_t _port;
    std::shared_ptr _epoller_ptr;
    std::unordered_map> _connections;
    std::shared_ptr _listensock_ptr;
    bool _quit;
    struct epoll_event revs[num]; // 专门用来处理事件的
};

我们看看效果

还可以啊!!!到这里我们就算是打通了我们连接的过程,我们接着看

3.6.区分读写异常事件

我们看看这个Accepter函数

  void Accepter(std::shared_ptr conection)
    {
        while (1)
        {
            struct sockaddr_in peer;
            socklen_t len=sizeof(peer);
            int sock=accept(conection->Getsock(),(sockaddr*)&peer,&len);
            if(sock>0)
            {
                //获取客户端信息
                uint16_t clientport=ntohs(peer.sin_port);
                char buffer[128];
                inet_ntop(AF_INET,&(peer.sin_addr),buffer,sizeof(buffer));
                std::cout<<"get a new client from:"<Getsock()<

注意里面的AddConnection函数,这个函数是用文件描述符来创建Connection对象的。但是文件描述符有两种啊!一个是listen套接字,一个是普通套接字。Listen套接字只关心读事件,而其他文件描述符则是关心读,写,异常事件的!!但是我们在这里却统一使用了AddConnection (sock,EPOLLIN,nullptr,nullptr,nullptr);一棍子打死,只关心读事件。这样子是非常不合理的。

所以对应AddConnection (sock,EPOLLIN,nullptr,nullptr,nullptr);这里,我们需要修改

//连接管理器
    void Accepter(std::shared_ptr conection)
    {
        while (1)
        {
            struct sockaddr_in peer;
            socklen_t len=sizeof(peer);
            int sock=accept(conection->Getsock(),(sockaddr*)&peer,&len);
            if(sock>0)
            {
                //获取客户端信息
                uint16_t clientport=ntohs(peer.sin_port);
                char buffer[128];
                inet_ntop(AF_INET,&(peer.sin_addr),buffer,sizeof(buffer));
                std::cout<<"get a new client from:"<Getsock()< conection)
    {
        std::cout<<"haha ,got you"<Getsock()< conection)
    {}
    void Excepter(std::shared_ptr conection)
    {}

我们可以测试一下,到底有没有用

我们发现它在一直打印!说明我们成功了!!

3.7.读事件的处理

好了,我们现在就应该来处理读写异常事件

  • 读事件的处理

    Recver这里还是和之前一样的问题,也是前面在写三个多路转接接口服务器时,一直没有处理的问题,你怎么保证你一次就把所有数据全部都读上来了呢?

如果不能保证,那就和Accepter一样,必须打死循环来进行读取,当recv返回值大于0,那我们就把读取到的数据先放入缓冲区,缓冲区在哪里呢?

  其实就在connection参数所指向的结构体里面,结构体里会有sock所对应的收发缓冲区。然后就调用外部传入的回调函数_service,对服务器收到的数据进行应用层的业务逻辑处理。

  1. 当recv读到0时,说明客户端把连接关了,那这
  2. 就算异常事件,直接回调sock对应的异常处理方法即可。
  3. 当recv的返回值小于0,同时错误码被设置为EAGAIN或EWOULDBLOCK时,则说明recv已经把sock底层的数据全部读走了,则此时直接break跳出循环即可。也有可能是被信号给中断了,则此时应该继续执行循环
  4. 另外一种情况就是recv系统调用真的出错了,则此时也调用sock的异常方法进行处理即可。
  5. 业务逻辑处理方法应该在本次循环读取到所有的数据之后再进行处理。

class Connection
{
......
    void Append(std::string info)//读取成功了,就把读取的内容存到这里来!
    {
        _inbuffer+=info;
    }
 
private:
    int _sock;
    std::string _inbuffer; // 这里来当输入缓冲区,但是这里是有缺点的,它不能处理二进制流
    std::string _outbuffer;
 
};

我们接着写,

为了方便,我们这里给Connection类加入两个新成员,下面是修改的部分

 
class Connection
{
public:
 
    uint16_t _clientport;
    std::string _clientip;
};
class TcpServer : public nocopy
{
    // 连接管理器
    void Accepter(std::shared_ptr conection)
    {
        while (1)
        {
            struct sockaddr_in peer;
            socklen_t len = sizeof(peer);
            int sock = accept(conection->Getsock(), (sockaddr *)&peer, &len);
            if (sock > 0)
            {
                // 获取客户端信息
                uint16_t clientport = ntohs(peer.sin_port);
                char buffer[128];
                inet_ntop(AF_INET, &(peer.sin_addr), buffer, sizeof(buffer));
                std::cout << "get a new client from:" << buffer << conection->Getsock() << std::endl;
 
 
                set_non_blocking(sock); // 设置非阻塞
                AddConnection(sock, EPOLLIN,
                              std::bind(&TcpServer::Recver, this, std::placeholders::_1),
                              std::bind(&TcpServer::Sender, this, std::placeholders::_1),
                              std::bind(&TcpServer::Excepter, this, std::placeholders::_1),
                              buffer,clientport);
            }
            else
            {
                if (errno == EWOULDBLOCK)
                    break;
                else if (errno == EINTR)
                    break;
                else
                    break;
            }
        }
    }
    // 事件管理器
    void Recver(std::shared_ptr conection)
    {
        int sock = conection->Getsock();
        while (1)
        {
            char buffer[128];
            memset(buffer, 0, sizeof(buffer));
            ssize_t n = recv(sock, buffer, sizeof(buffer) - 1, 0); // 非阻塞读取
            if (n > 0)                                             // 成功了!!
            {
                conection->Append(buffer); // 把读取的数据放到Connection对象的输入缓冲区里面
            }
            else if (n == 0)
            {
 
            }
            else
            {
 
            }
        }
    }
   
    void AddConnection(int sock, uint32_t event, func_t recv_cb, func_t send_cb, func_t except_cb,
                                                        std::string clientip="0.0.0.0",uint16_t clientport=0)
    {
        
        // 1.给listen套接字创建一个Connection对象
        std::shared_ptr new_connection = std::make_shared(sock, std::shared_ptr(this)); // 创建Connection对象
        new_connection->setcallback(recv_cb, send_cb, except_cb);
        new_connection->_clientip=clientip;
        new_connection->_clientport=clientport;
 
        // 2.添加到_connections里面去
        _connections.insert(std::make_pair(sock, new_connection));
 
        
 
        // 将listen套接字添加到epoll中->将listensock和他关心的事件,添加到内核的epoll模型中的红黑树里面
        // 3.将listensock添加到红黑树
        _epoller_ptr->EpollUpDate(EPOLL_CTL_ADD, sock, event); // 注意这里的EPOLLET设置了ET模式
 
        std::cout << "add a new connection success,sockfd:" << sock << std::endl;
    }
   
 
};

具体修改看代码即可

 我们接着完善我们的读事件的处理

 // 事件管理器
    void Recver(std::shared_ptr conection)
    {
        int sock = conection->Getsock();
        while (1)
        {
            char buffer[128];
            memset(buffer, 0, sizeof(buffer));
            ssize_t n = recv(sock, buffer, sizeof(buffer) - 1, 0); // 非阻塞读取
            if (n > 0)                                             // 成功了!!
            {
                conection->Append(buffer); // 把读取的数据放到Connection对象的输入缓冲区里面
            }
            else if (n == 0) // 客户端
            {
                std::cout << "sockfd:" << sock << ",client:" << conection->_clientip << ":" << conection->_clientport << "quit" << std::endl;
                Excepter(conection);
            }
            else
            {
                if (errno == EWOULDBLOCK)
                    break;
                else if (errno == EINTR)
                    break;
                else
                {
                    std::cout << "sockfd:" << sock << ",client:" << conection->_clientip << ":" << conection->_clientport << "recv err" << std::endl;
                    Excepter(conection);
                }
            }
        }
    }
    void Sender(std::shared_ptr conection)
    {
    }
    void Excepter(std::shared_ptr conection)
    {
    }

好,我们把源代码拿出来测试一下

tcpserver.hpp

#pragma once
#include 
#include 
#include 
#include 
#include 
 
#include "Socket.hpp"
#include "Epoller.hpp"
#include "nocopy.hpp"
 
class Connection;
using func_t = std::function)>;
class TcpServer;
 
class Connection
{
public:
    Connection(int sock, std::shared_ptr tcp_server_ptr) : _sock(sock), _tcp_server_ptr(tcp_server_ptr)
    {
    }
    ~Connection()
    {
    }
    void setcallback(func_t recv_cb, func_t send_cb, func_t except_cb)
    {
        _recv_cb = recv_cb;
        _send_cb = send_cb;
        _except_cb = except_cb;
    }
    int Getsock()
    {
        return _sock;
    }
    void Append(std::string info)
    {
        _inbuffer += info;
    }
 
public:
    int _sock;
    std::string _inbuffer; // 这里来当输入缓冲区,但是这里是有缺点的,它不能处理二进制流
    std::string _outbuffer;
 
public:
    func_t _recv_cb;                            // 读回调函数
    func_t _send_cb;                            // 写回调函数
    func_t _except_cb;                          //
    std::shared_ptr _tcp_server_ptr; // 添加一个回指指针
    uint16_t _clientport;
    std::string _clientip;
};
class TcpServer : public nocopy
{
    static const int num = 64;
 
public:
    TcpServer(uint16_t port) : _port(port),
                               _listensock_ptr(new Sock()),
                               _epoller_ptr(new Epoller()),
                               _quit(true)
    {
    }
    ~TcpServer()
    {
    }
    // 设置文件描述符为非阻塞
    int set_non_blocking(int fd)
    {
        int flags = fcntl(fd, F_GETFL, 0);
        if (flags == -1)
        {
            perror("fcntl: get flags");
            return -1;
        }
        if (fcntl(fd, F_SETFL, flags | O_NONBLOCK) == -1)
        {
            perror("fcntl: set non-blocking");
            return -1;
        }
        return 0;
    }
 
    void Init()
    {
        _listensock_ptr->Socket();
        set_non_blocking(_listensock_ptr->Fd()); // 设置listen文件描述符为非阻塞
        _listensock_ptr->Bind(_port);
        _listensock_ptr->Listen();
        AddConnection(_listensock_ptr->Fd(), (EPOLLIN | EPOLLET),
                      std::bind(&TcpServer::Accepter, this, std::placeholders::_1), nullptr, nullptr); // 暂时设置成nullptr
    }
    // 连接管理器
    void Accepter(std::shared_ptr conection)
    {
        while (1)
        {
            struct sockaddr_in peer;
            socklen_t len = sizeof(peer);
            int sock = accept(conection->Getsock(), (sockaddr *)&peer, &len);
            if (sock > 0)
            {
                // 获取客户端信息
                uint16_t clientport = ntohs(peer.sin_port);
                char buffer[128];
                inet_ntop(AF_INET, &(peer.sin_addr), buffer, sizeof(buffer));
                std::cout << "get a new client from:" << buffer << conection->Getsock() << std::endl;
 
                set_non_blocking(sock); // 设置非阻塞
                AddConnection(sock, EPOLLIN,
                              std::bind(&TcpServer::Recver, this, std::placeholders::_1),
                              std::bind(&TcpServer::Sender, this, std::placeholders::_1),
                              std::bind(&TcpServer::Excepter, this, std::placeholders::_1),
                              buffer, clientport);
            }
            else
            {
                if (errno == EWOULDBLOCK)
                    break;
                else if (errno == EINTR)
                    break;
                else
                    break;
            }
        }
    }
    // 事件管理器
    void Recver(std::shared_ptr conection)
    {
        int sock = conection->Getsock();
        while (1)
        {
            char buffer[128];
            memset(buffer, 0, sizeof(buffer));
            ssize_t n = recv(sock, buffer, sizeof(buffer) - 1, 0); // 非阻塞读取
            if (n > 0)                                             // 成功了!!
            {
                conection->Append(buffer); // 把读取的数据放到Connection对象的输入缓冲区里面
            }
            else if (n == 0) // 客户端
            {
                std::cout << "sockfd:" << sock << ",client:" << conection->_clientip << ":" << conection->_clientport << "quit" << std::endl;
                Excepter(conection);
            }
            else
            {
                if (errno == EWOULDBLOCK)
                    break;
                else if (errno == EINTR)
                    break;
                else
                {
                    std::cout << "sockfd:" << sock << ",client:" << conection->_clientip << ":" << conection->_clientport << "recv err" << std::endl;
                    Excepter(conection);
                }
            }
        }
    }
    void Sender(std::shared_ptr conection)
    {
    }
    void Excepter(std::shared_ptr conection)
    {
        std::cout<<"Execpted ! fd:"<Getsock()<Getsock() << " ";
            std::cout<_inbuffer;
        }
        std::cout << std::endl;
    }
    void AddConnection(int sock, uint32_t event, func_t recv_cb, func_t send_cb, func_t except_cb,
                       std::string clientip = "0.0.0.0", uint16_t clientport = 0)
    {
 
        // 1.给listen套接字创建一个Connection对象
        std::shared_ptr new_connection = std::make_shared(sock, std::shared_ptr(this)); // 创建Connection对象
        new_connection->setcallback(recv_cb, send_cb, except_cb);
        new_connection->_clientip = clientip;
        new_connection->_clientport = clientport;
 
        // 2.添加到_connections里面去
        _connections.insert(std::make_pair(sock, new_connection));
 
        // 将listen套接字添加到epoll中->将listensock和他关心的事件,添加到内核的epoll模型中的红黑树里面
        // 3.将listensock添加到红黑树
        _epoller_ptr->EpollUpDate(EPOLL_CTL_ADD, sock, event); // 注意这里的EPOLLET设置了ET模式
 
        std::cout << "add a new connection success,sockfd:" << sock << std::endl;
    }
    bool IsConnectionSafe(int fd)
    {
        auto iter = _connections.find(fd);
        if (iter == _connections.end())
        {
            return false;
        }
        else
        {
            return true;
        }
    }
    void Dispatcher() // 事件派发器
    {
        int n = _epoller_ptr->EpollerWait(revs, num); // 获取已经就绪的事件
        for (int i = 0; i < num; i++)
        {
            uint32_t events = revs[i].events;
            int sock = revs[i].data.fd;
            // 如果出现异常,统一转发为读写问题,只需要处理读写就行
            if (events & EPOLLERR) // 出现错误了
            {
                events |= (EPOLLIN | EPOLLOUT);
            }
            if (events & EPOLLHUP)
            {
                events |= (EPOLLIN | EPOLLOUT);
            }
            // 只需要处理读写就行
            if (events & EPOLLIN && IsConnectionSafe(sock)) // 读事件就绪
            {
                if (_connections[sock]->_recv_cb)
                    _connections[sock]->_recv_cb(_connections[sock]);
            }
            if (events & EPOLLOUT && IsConnectionSafe(sock)) // 写事件就绪
            {
                if (_connections[sock]->_send_cb)
                    _connections[sock]->_send_cb(_connections[sock]);
            }
        }
    }
    void Loop()
    {
        _quit = false;
 
        while (!_quit)
        {
            Dispatcher();
            PrintConnection();
        }
        _quit = true;
    }
 
private:
    uint16_t _port;
    std::shared_ptr _epoller_ptr;
    std::unordered_map> _connections;
    std::shared_ptr _listensock_ptr;
    bool _quit;
    struct epoll_event revs[num]; // 专门用来处理事件的
};

好像没有什么问题啊!!! 我们确实做到了读取数据!但是我们还是没有处理这些数据!!

所以我们又要弄一个回调函数来处理这些数据

class TcpServer : public nocopy
{
    public:
    TcpServer(uint16_t port,func_t OnMessage) : _port(port),
                               _listensock_ptr(new Sock()),
                               _epoller_ptr(new Epoller()),
                               _quit(true),
                               _OnMessage(OnMessage)
    {
    }
...
    // 事件管理器
    void Recver(std::shared_ptr conection)
    {
        int sock = conection->Getsock();
        while (1)
        {
            char buffer[128];
            memset(buffer, 0, sizeof(buffer));
            ssize_t n = recv(sock, buffer, sizeof(buffer) - 1, 0); // 非阻塞读取
            if (n > 0)                                             // 成功了!!
            {
                conection->Append(buffer); // 把读取的数据放到Connection对象的输入缓冲区里面
            }
            else if (n == 0) // 客户端
            {
                std::cout << "sockfd:" << sock << ",client:" << conection->_clientip << ":" << conection->_clientport << "quit" << std::endl;
                Excepter(conection);
            }
            else
            {
                if (errno == EWOULDBLOCK)
                    break;
                else if (errno == EINTR)
                    break;
                else
                {
                    std::cout << "sockfd:" << sock << ",client:" << conection->_clientip << ":" << conection->_clientport << "recv err" << std::endl;
                    Excepter(conection);
                }
            }
            _OnMessage(conection);//将读取的数据交给上层处理
        }
    }
   
 
private:
  ....
 
    //上层处理数据
    func_t _OnMessage;//将数据交给上层
};

我们要求上层来完成检测,来处理粘包的问题!这个_OnMessage不就是回调函数吗!!!

我们简单的写一个

mian.cc

#include"tcpserver.hpp"
#include
 
void DefaultOmMessage(std::shared_ptr connection_ptr)
{
    std::cout<<"上层得到了数据:"<_inbuffer< svr(new TcpServer(8877,DefaultOmMessage));
    svr->Init();
    svr->Loop();
}

我们来测试一下行不行

3.8.处理数据 ——(反)序列化/编解码

可以哦!!! 我们已经拿到数据了,那我们应该怎么处理数据呢?我们应该在这里完成序列和反序列化!!!由于我之前写过序列和反序列化,以及编码解码的代码,所以我直接拿过复制粘贴好了。

Serialization.hpp

#pragma
#define CRLF "	"               // 分隔符
#define CRLF_LEN strlen(CRLF)   // 分隔符长度
#define SPACE " "               // 空格
#define SPACE_LEN strlen(SPACE) // 空格长度
#define OPS "+-*/%"             // 运算符
 
#include 
#include 
#include 
#include
 
//参数len为in的长度,是一个输出型参数。如果为0代表err
std::string decode(std::string& in,size_t*len)
{
    assert(len);//如果长度为0是错误的
    
    // 1.确认in的序列化字符串完整(分隔符)
    *len=0;
 
    size_t pos = in.find(CRLF);//查找	第一次出现时的下标
    //查找不到,err
    if(pos == std::string::npos){
        return "";//返回空串
    }
   
    // 2.有分隔符,判断长度是否达标
    // 此时pos下标正好就是标识大小的字符长度
    std::string inLenStr = in.substr(0,pos);//从下标0开始一直截取到第一个	之前
 
    //到这里我们要明白,我们这上面截取的是最开头的长度,也就是说,我们截取到的一定是个数字,这个是我们序列化字符的长度
    
    size_t inLen = atoi(inLenStr.c_str());//把截取的这个字符串转int,inLen就是序列化字符的长度
 
    //传入的字符串的长度 - 第一个	前面的字符数 - 2个	
    size_t left = in.size() - inLenStr.size()- 2*CRLF_LEN;//原本预计的序列化字符串长度
    if(left

 接下来我们就可以对读取的数据进行处理了!!!怎么处理呢?我们还是跟自定义协议那篇一样,搞一个计算器好了!

Caculater函数

Response Caculater(const Request& req)
{
    Response resp;//构造函数中已经指定了exitcode为0
    switch (req._ops)
    {
    case '+':
        resp._result = req._x + req._y;
        break;
    case '-':
        resp._result = req._x - req._y;
        break;
    case '*':
        resp._result = req._x * req._y;
        break;
    case '%':
    {
        if(req._y == 0)
        {
            resp._exitCode = -1;//取模错误
            break;
        }
        resp._result = req._x % req._y;//取模是可以操作负数的
        break;
    }
    case '/':
    {
        if(req._y == 0)
        {
            resp._exitCode = -2;//除0错误
            break;
        }
        resp._result = req._x / req._y;//取模是可以操作负数的
        break;
    }
    default:
        resp._exitCode = -3;//操作符非法
        break;
    }
 
    return resp;
}

我们把这个放到了我们的 Serialization.hpp

接下来就接着修改我们的main.cc好了!

main.cc

#include "tcpserver.hpp"
#include 
#include "Serialization.hpp"
 
void DefaultOmMessage(std::shared_ptr connection_ptr)
{
    std::cout << "上层得到了数据:" << connection_ptr->_inbuffer << std::endl;
    std::string inbuf = connection_ptr->_inbuffer;
    size_t packageLen = inbuf.size();
    //由于我们是使用telnet来测试的所以,我们就不解码了
    /*
    // 3.1.解码和反序列化客户端传来的消息
    std::string package = decode(inbuf, &packageLen); // 解码
    if (packageLen == 0)
    {
        printf("decode err: %s[%d] status: %d", connection_ptr->_clientip, connection_ptr->_clientport, packageLen);
        // 报文不完整或有误
    }
    */
 
    Request req;
    bool deStatus = req.deserialize(inbuf); // 使用Request的反序列化,packsge内部各个成员已经有了数值
    if (deStatus)                             // 获取消息反序列化成功
    {
        // 3.2.获取结构化的相应
        Response resp = Caculater(req); // 将计算任务的结果存放到Response里面去
 
        // 3.3.序列化和编码响应
        std::string echoStr;
        resp.serialize(echoStr); // 序列化
 
        //由于我们使用的是telnet来测试的,所以我们不编码了
       // echoStr = encode(echoStr, echoStr.size()); // 编码
 
        // 3.4.写入,发送返回值给输出缓冲区
        connection_ptr->_outbuffer=echoStr;
        std::cout<_outbuffer<_clientip, connection_ptr->_clientport, deStatus);
        return;
    }
 
}
 
int main()
{
    std::unique_ptr svr(new TcpServer(8877, DefaultOmMessage));
    svr->Init();
    svr->Loop();
}

我们测试一下 

可以啊!!! 接下来就是专门处理写事件

3.9.写事件的处理

  之前写服务器时,我们从来没处理过写事件,写事件和读事件不太一样,关心读事件是要常设置的,但写事件一般都是就绪的,因为内核发送缓冲区大概率都是有空间的,如果每次都要让epoll帮我们关心读事件,这其实是一种资源的浪费,因为大部分情况下,你send数据,都是会直接将应用层数据拷贝到内核缓冲区的,不会出现等待的情况,而recv就不太一样,recv在读取的时候,有可能数据还在网络里面,所以recv要等待的概率是比较高的,所以对于读事件来说,常常都要将其设置到sock所关心的事件集合中。

        但写事件并不是这样的,写事件应该是偶尔设置到关心集合中,比如你这次没把数据一次性发完,但你又没设置该sock关心写事件,当下次写事件就绪了,也就是内核发送缓冲区有空间了,epoll_wait也不会通知你,那你还怎么发送剩余数据啊,所以这个时候你就应该设置写事件关心了,让epoll_wait帮你监视sock上的写事件,以便于下次epoll_wait通知你时,你还能够继续发送上次没发完的数据。

        这个时候可能有人会问,ET模式不是只会通知一次吗?如果我这次设置了写关心,但下次发送数据的时候,还是没发送完毕(因为内核发送缓冲区可能没有剩余空间了),那后面ET模式是不是就不会通知我了呀,那我还怎么继续发送剩余的数据呢?ET模式在底层就绪的事件状态发生变化时,还会再通知上层一次的,对于读事件来说,当数据从无到有,从有到多状态发生变化时,ET就还会通知上层一次,对于写事件来说,当内核发送缓冲区剩余空间从无到有,从有到多状态发生变化时,ET也还会通知上层一次,所以不用担心数据发送不完的问题产生,因为ET是会通知我们的。

        在循环外,我们只需要通过判断outbuffer是否为空的情况,来决定是否要设置写事件关心,当数据发送完了那我们就取消对于写事件的关心,不占用epoll的资源,如果数据没发送完,那就设置对于写事件的关心,因为我们要保证下次写事件就绪时,epoll_wait能够通知我们对写事件进行处理。

main.cc

#include "tcpserver.hpp"
#include 
#include "Serialization.hpp"
 
void DefaultOmMessage(std::shared_ptr connection_ptr)
{
    std::cout << "上层得到了数据:" << connection_ptr->_inbuffer << std::endl;
    std::string inbuf = connection_ptr->_inbuffer;
    size_t packageLen = inbuf.size();
    //由于我们是使用telnet来测试的所以,我们就不解码了
    /*
    // 3.1.解码和反序列化客户端传来的消息
    std::string package = decode(inbuf, &packageLen); // 解码
    if (packageLen == 0)
    {
        printf("decode err: %s[%d] status: %d", connection_ptr->_clientip, connection_ptr->_clientport, packageLen);
        // 报文不完整或有误
    }
    */
 
    Request req;
    bool deStatus = req.deserialize(inbuf); // 使用Request的反序列化,packsge内部各个成员已经有了数值
    if (deStatus)                             // 获取消息反序列化成功
    {
        // 3.2.获取结构化的相应
        Response resp = Caculater(req); // 将计算任务的结果存放到Response里面去
 
        // 3.3.序列化和编码响应
        std::string echoStr;
        resp.serialize(echoStr); // 序列化
 
        //由于我们使用的是telnet来测试的,所以我们不编码了
       // echoStr = encode(echoStr, echoStr.size()); // 编码
 
        // 3.4.写入,发送返回值给输出缓冲区
        connection_ptr->_outbuffer=echoStr;
        std::cout<_outbuffer<_tcp_server_ptr->Sender(connection_ptr);//调用里面的方法来发送
    }
    else // 客户端消息反序列化失败
    {
        printf("deserialize err: %s[%d] status: %d", connection_ptr->_clientip, connection_ptr->_clientport, deStatus);
        return;
    }
    
}

我们注意最后一句,我们直接把发生认为交给了Tcpserver类里的Sender函数,不过这个函数还没有写,我们来写一下!

Tcpserver类里的Sender函数

void Sender(std::shared_ptr connection) // 使用shared_ptr管理Connection对象的生命周期  
{  
    // 无限循环,直到输出缓冲区为空或发生需要退出的错误  
    while (true)  
    {  
        // 引用当前连接的输出缓冲区  
        auto &outbuffer = connection->_outbuffer;  
  
        // 尝试发送数据,send函数返回发送的字节数,或者-1表示错误  
        ssize_t n = send(connection->Getsock(), outbuffer.data(), outbuffer.size(), 0);  
  
        // 如果n大于0,表示部分或全部数据发送成功  
        if (n > 0)  
        {  
            // 从输出缓冲区中移除已发送的数据  
            outbuffer.erase(0, n);  
  
            // 如果输出缓冲区为空,则退出循环  
            if (outbuffer.empty())  
                break;  
        }  
        // 如果n等于0,表示连接已关闭(对端执行了关闭操作),退出函数  
        else if (n == 0)  
        {  
            return;  
        }  
        // 处理发送失败的情况  
        else  
        {  
            // 根据errno的值判断错误类型  
            if (errno == EWOULDBLOCK)  
            {  
                // EWOULDBLOCK表示非阻塞模式下资源暂时不可用,可稍后重试,但这里选择直接退出循环  
                break;  
            }  
            else if (errno == EINTR)  
            {  
                // EINTR表示操作被信号中断,可以安全地重新尝试  
                continue;  
            }  
            else  
            {  
                // 打印错误信息,包含套接字描述符和客户端IP地址及端口  
                std::cout << "sockfd:" << connection->Getsock() << ",client:" << connection->_clientip << ":" << connection->_clientport << "send error" << std::endl;  
  
                // 调用异常处理回调函数  
                Excepter(conection);  
  
                // 退出循环  
                break;  
            }  
        }  
    }  
}

但是这还不够啊,万一我没写完数据呢?我们还需要进行写处理,这里我们就借助epoll机制来帮我们。

// Sender函数负责通过给定的Connection对象发送数据。  
// 它使用epoll机制来管理套接字的读写事件,根据发送情况调整对写事件的关注。  
void Sender(std::shared_ptr connection)  
{  
    // 引用Connection对象的输出缓冲区  
    auto &outbuffer = connection->_outbuffer;  
  
    // 循环发送数据,直到输出缓冲区为空或发生错误  
    while (true)  
    {  
        // 尝试发送数据  
        ssize_t n = send(connection->Getsock(), outbuffer.data(), outbuffer.size(), 0); // 注意:使用.data()获取缓冲区首地址  
  
        // 如果发送成功(n > 0)  
        if (n > 0)  
        {  
            // 从输出缓冲区中移除已发送的数据  
            outbuffer.erase(0, n);  
  
            // 如果输出缓冲区为空,则退出循环  
            if (outbuffer.empty())  
                break;  
        }  
        // 如果n == 0,表示连接已正常关闭(对端调用了close),退出函数  
        else if (n == 0)  
        {  
            return;  
        }  
        // 处理发送失败的情况  
        else  
        {  
            // 检查errno以确定错误类型  
            if (errno == EWOULDBLOCK)  
            {  
                // EWOULDBLOCK表示资源暂时不可用,通常发生在非阻塞模式下,退出循环  
                break;  
            }  
            else if (errno == EINTR)  
            {  
                // EINTR表示操作被信号中断,继续循环尝试发送  
                continue;  
            }  
            else  
            {  
                // 打印错误信息,并调用Connection对象的异常处理回调函数  
                std::cout << "sockfd:" << connection->Getsock() << ",client:" << connection->_clientip << ":" << connection->_clientport << "send error" << std::endl;  
                Excepter(conection);  
                break;  
            }  
        }  
    }  
  
    // 根据输出缓冲区是否为空,调整对写事件的关注  
    if (!outbuffer.empty())  
    {  
        // 如果输出缓冲区不为空,开启对写事件的关注  
        EnableEvent(connection->Getsock(), true, true); // 同时关心读和写事件  
    }  
    else  
    {  
        // 如果输出缓冲区为空,关闭对写事件的关注,但保持对读事件的关注  
        EnableEvent(connection->Getsock(), true, false); // 只关心读事件  
    }  
}  
  
// EnableEvent函数用于根据给定的参数,更新epoll事件监听器对套接字的事件关注。  
void EnableEvent(int sock, bool readable, bool sendable)  
{  
    // 初始化events变量,用于存储要设置的事件标志  
    uint32_t events = 0;  
  
    // 如果需要关注读事件,则设置EPOLLIN标志  
    events |= (readable ? EPOLLIN : 0);  
  
    // 如果需要关注写事件,则设置EPOLLOUT标志  
    events |= (sendable ? EPOLLOUT : 0);  
  
    // 总是设置EPOLLET标志,表示使用边缘触发模式(Edge Triggered)  
    events |= EPOLLET;  
  
    // 调用epoll更新函数,修改对指定套接字的事件关注  
    // 注意:_epoller_ptr应该是一个指向epoll事件监听器对象的指针,EPOLL_CTL_MOD表示修改现有事件  
    _epoller_ptr->EpollUpDate(EPOLL_CTL_MOD, sock, events);  
}

我们测试一下,这能不能完成写的任务啊!

 

很好,显然是成功了!!!

3.10.异常事件的处理 
        大家仔细看看上面的代码就会知道,读写事件出问题了之后,都是立马将错误和异常都传递给了Exceptrt函数!

        下面是异常事件的处理方法,我们统一对所有异常事件,都先将其从epoll模型中移除,然后关闭文件描述符,最后将conn从哈希表_connecions中移除。

void Excepter(std::shared_ptr conection)
    {
        std::cout << "Execpted ! fd:" << conection->Getsock() << std::endl;
       //1.将文件描述符从epoll模型里面移除来
       _epoller_ptr->EpollUpDate(EPOLL_CTL_DEL,conection->Getsock(),0);
        //2.关闭异常的文件描述符
        close(conection->Getsock());
        //3.从unordered_map中删除
        _connections.erase(conection->Getsock());
 
    }

我们来测试一下:

我们连接我们的服务器,然后退出,服务器就会打印下面这些内容

很显然失败了!

 为什么呢?就是connection指针的生命周期有问题

       值得注意的是,connnection指针指向的连接结构体空间,必须由我们自己释放,有人说,为什么啊?你哈希表不是都已经erase了么?为什么还要程序员自己再delete连接结构体空间呢?

这里要给大家说明一点的是,所有的容器在erase的时候,都只释放容器自己所new出来的空间,像哈希表这样的容器,它会new一个存储键值对的节点空间,节点里面存储着conn指针和sockfd,当调用哈希表的erase时,哈希表只会释放它自己new出来的节点空间,至于这个节点空间里面存储了一个Connection类型的指针,并且这个指针变量指向一个结构体空间,这些事情哈希表才不会管你呢,容器只会释放他自己开辟的空间,哈希表是vector挂单链表的方式来实现的。
所以我们要自己手动释放conn指向的空间,如果你不想自己手动释放conn指向的堆空间资源,则可以存储智能指针对象,这样在哈希表erase时,就会释放智能指针对象的空间,从而自动调用Connection类的析构函数。

  这样搞起来其实还是很麻烦的,所以我们就自己手动释放就好了,如果不手动释放那就会造成内存泄露。

由于实现起来比较麻烦,需要修改代码的很多地方,我就不改了,但是最核心的部分就像下面这样子

 至此,我们的简易版本的单Reactor单进程版本的TCP服务器就算完成了!

3.11.源代码

tcpserver.hpp

#pragma once
#include 
#include 
#include 
#include 
#include 
 
#include "Socket.hpp"
#include "Epoller.hpp"
#include "nocopy.hpp"
#include 
#include 
 
class Connection;
using func_t = std::function)>;
class TcpServer;
 
class Connection
{
public:
    Connection(int sock, std::shared_ptr tcp_server_ptr) : _sock(sock), _tcp_server_ptr(tcp_server_ptr)
    {
    }
    ~Connection()
    {
    }
    void setcallback(func_t recv_cb, func_t send_cb, func_t except_cb)
    {
        _recv_cb = recv_cb;
        _send_cb = send_cb;
        _except_cb = except_cb;
    }
    int Getsock()
    {
        return _sock;
    }
    void Append(std::string info)
    {
        _inbuffer += info;
    }
 
public:
    int _sock;
    std::string _inbuffer; // 这里来当输入缓冲区,但是这里是有缺点的,它不能处理二进制流
    std::string _outbuffer;
 
public:
    func_t _recv_cb;                            // 读回调函数
    func_t _send_cb;                            // 写回调函数
    func_t _except_cb;                          //
    std::shared_ptr _tcp_server_ptr; // 添加一个回指指针
    uint16_t _clientport;
    std::string _clientip;
};
class TcpServer : public nocopy
{
    static const int num = 64;
 
public:
    TcpServer(uint16_t port, func_t OnMessage) : _port(port),
                                                 _listensock_ptr(new Sock()),
                                                 _epoller_ptr(new Epoller()),
                                                 _quit(true),
                                                 _OnMessage(OnMessage)
    {
    }
    ~TcpServer()
    {
    }
    // 设置文件描述符为非阻塞
    int set_non_blocking(int fd)
    {
        int flags = fcntl(fd, F_GETFL, 0);
        if (flags == -1)
        {
            perror("fcntl: get flags");
            return -1;
        }
        if (fcntl(fd, F_SETFL, flags | O_NONBLOCK) == -1)
        {
            perror("fcntl: set non-blocking");
            return -1;
        }
        return 0;
    }
 
    void Init()
    {
        _listensock_ptr->Socket();
        set_non_blocking(_listensock_ptr->Fd()); // 设置listen文件描述符为非阻塞
        _listensock_ptr->Bind(_port);
        _listensock_ptr->Listen();
        AddConnection(_listensock_ptr->Fd(), (EPOLLIN | EPOLLET),
                      std::bind(&TcpServer::Accepter, this, std::placeholders::_1), nullptr, nullptr); // 暂时设置成nullptr
    }
    // 连接管理器
    void Accepter(std::shared_ptr conection)
    {
        while (1)
        {
            struct sockaddr_in peer;
            socklen_t len = sizeof(peer);
            int sock = accept(conection->Getsock(), (sockaddr *)&peer, &len);
            if (sock > 0)
            {
                // 获取客户端信息
                uint16_t clientport = ntohs(peer.sin_port);
                char buffer[128];
                inet_ntop(AF_INET, &(peer.sin_addr), buffer, sizeof(buffer));
                std::cout << "get a new client from:" << buffer << conection->Getsock() << std::endl;
 
                set_non_blocking(sock); // 设置非阻塞
                AddConnection(sock, EPOLLIN,
                              std::bind(&TcpServer::Recver, this, std::placeholders::_1),
                              std::bind(&TcpServer::Sender, this, std::placeholders::_1),
                              std::bind(&TcpServer::Excepter, this, std::placeholders::_1),
                              buffer, clientport);
            }
            else
            {
                if (errno == EWOULDBLOCK)
                    break;
                else if (errno == EINTR)
                    break;
                else
                    break;
            }
        }
    }
    // 事件管理器
    void Recver(std::shared_ptr conection)
    {
        int sock = conection->Getsock();
        while (1)
        {
            char buffer[128];
            memset(buffer, 0, sizeof(buffer));
            ssize_t n = recv(sock, buffer, sizeof(buffer) - 1, 0); // 非阻塞读取
            if (n > 0)                                             // 成功了!!
            {
                conection->Append(buffer); // 把读取的数据放到Connection对象的输入缓冲区里面
            }
            else if (n == 0) // 客户端
            {
                std::cout << "sockfd:" << sock << ",client:" << conection->_clientip << ":" << conection->_clientport << "quit" << std::endl;
                Excepter(conection);
            }
            else
            {
                if (errno == EWOULDBLOCK)
                    break;
                else if (errno == EINTR)
                    break;
                else
                {
                    std::cout << "sockfd:" << sock << ",client:" << conection->_clientip << ":" << conection->_clientport << "recv err" << std::endl;
                    Excepter(conection);
                }
            }
            _OnMessage(conection); // 将读取的数据交给上层处理
        }
    }
    void Sender(std::shared_ptr conection)
    {
        std::string outbuffer = conection->_outbuffer;
        while (1)
        {
 
            ssize_t n = send(conection->Getsock(), outbuffer.data(), outbuffer.size(), 0);
            if (n > 0) // 发成功了
            {
                outbuffer.erase(0, n);
                if (outbuffer.empty())
                    break;
            }
            else if (n == 0)
            {
                return;
            }
            else
            {
                if (errno == EWOULDBLOCK)
                    break;
                else if (errno == EINTR)
                    continue;
                else
                {
                    std::cout << "sockfd:" << conection->Getsock() << ",client:" << conection->_clientip << ":" << conection->_clientport << "send error" << std::endl;
                    Excepter(conection);
                    break;
                }
            }
        }
        if (!outbuffer.empty())
        {
            // 开启对写事件的关心
            EnableEvent(conection->Getsock(), true, true); // 关心读写
        }
        else
        {
            // 关闭对写事件的关心
            EnableEvent(conection->Getsock(), true, false); // 关心读,不关心写
        }
    }
    void EnableEvent(int sock, bool readable, bool sendable)
    {
        uint32_t events = 0;
        events |= (readable ? EPOLLIN : 0) | (sendable ? EPOLLOUT : 0) | EPOLLET;
        _epoller_ptr->EpollUpDate(EPOLL_CTL_MOD, sock, events);
    }
    void Excepter(std::shared_ptr conection)
    {
        if (!conection)
        {
            // Connection 对象可能已被销毁,无需进一步操作
            std::cout << "Connection already destroyed, no further action taken." << std::endl;
            return;
        }
 
        std::cout << "Execpted ! fd:" << conection->Getsock() << std::endl;
        // 1.将文件描述符从epoll模型里面移除来
        _epoller_ptr->EpollUpDate(EPOLL_CTL_DEL, conection->Getsock(), 0);
        // 2.关闭异常的文件描述符
        close(conection->Getsock());
        // 3.从unordered_map中删除
        _connections.erase(conection->Getsock());
    }
    void PrintConnection()
    {
        std::cout << "_connections fd list: ";
        for (auto &connection : _connections)
        {
            std::cout << connection.second->Getsock() << " ";
            std::cout << connection.second->_inbuffer;
        }
        std::cout << std::endl;
    }
    void AddConnection(int sock, uint32_t event, func_t recv_cb, func_t send_cb, func_t except_cb,
                       std::string clientip = "0.0.0.0", uint16_t clientport = 0)
    {
 
        // 1.给listen套接字创建一个Connection对象
        std::shared_ptr new_connection = std::make_shared(sock, std::shared_ptr(this)); // 创建Connection对象
        new_connection->setcallback(recv_cb, send_cb, except_cb);
        new_connection->_clientip = clientip;
        new_connection->_clientport = clientport;
 
        // 2.添加到_connections里面去
        _connections.insert(std::make_pair(sock, new_connection));
 
        // 将listen套接字添加到epoll中->将listensock和他关心的事件,添加到内核的epoll模型中的红黑树里面
        // 3.将listensock添加到红黑树
        _epoller_ptr->EpollUpDate(EPOLL_CTL_ADD, sock, event); // 注意这里的EPOLLET设置了ET模式
 
        std::cout << "add a new connection success,sockfd:" << sock << std::endl;
    }
    bool IsConnectionSafe(int fd)
    {
        auto iter = _connections.find(fd);
        if (iter == _connections.end())
        {
            return false;
        }
        else
        {
            return true;
        }
    }
    void Dispatcher() // 事件派发器
    {
        int n = _epoller_ptr->EpollerWait(revs, num); // 获取已经就绪的事件
        for (int i = 0; i < num; i++)
        {
            uint32_t events = revs[i].events;
            int sock = revs[i].data.fd;
            // 如果出现异常,统一转发为读写问题,只需要处理读写就行
            if (events & EPOLLERR) // 出现错误了
            {
                events |= (EPOLLIN | EPOLLOUT);
            }
            if (events & EPOLLHUP)
            {
                events |= (EPOLLIN | EPOLLOUT);
            }
            // 只需要处理读写就行
            if (events & EPOLLIN && IsConnectionSafe(sock)) // 读事件就绪
            {
                if (_connections[sock]->_recv_cb)
                    _connections[sock]->_recv_cb(_connections[sock]);
            }
            if (events & EPOLLOUT && IsConnectionSafe(sock)) // 写事件就绪
            {
                if (_connections[sock]->_send_cb)
                    _connections[sock]->_send_cb(_connections[sock]);
            }
        }
    }
    void Loop()
    {
        _quit = false;
 
        while (!_quit)
        {
            Dispatcher();
            PrintConnection();
        }
        _quit = true;
    }
 
private:
    uint16_t _port;
    std::shared_ptr _epoller_ptr;
    std::unordered_map> _connections;
    std::shared_ptr _listensock_ptr;
    bool _quit;
    struct epoll_event revs[num]; // 专门用来处理事件的
 
    // 上层处理数据
    func_t _OnMessage; // 将数据交给上层
};

Epoller.hpp

v#pragma once
 
#include 
#include 
#include 
#include 
#include "nocopy.hpp"
 
class Epoller : public nocopy
{
    static const int size = 128;
 
public:
    Epoller()
    {
        _epfd = epoll_create(size);
        if (_epfd == -1)
        {
            perror("epoll_creat error");
        }
        else
        {
            printf("epoll_creat successful:%d
", _epfd);
        }
    }
    ~Epoller()
    {
        if (_epfd > 0)
        {
            close(_epfd);
        }
    }
 
    int EpollerWait(struct epoll_event revents[],int num)
    {
        int n=epoll_wait(_epfd,revents,num,3000);
        return n;
    }
 
    int EpollUpDate(int oper,int sock,uint16_t event)
    {
        int n;
        if(oper==EPOLL_CTL_DEL)//将该事件从epoll红黑树里面删除
        {
            n=epoll_ctl(_epfd,oper,sock,nullptr);
             if(n!=0)
            {
                printf("delete epoll_ctl error");
            }
        }
        else{//添加和修改,即EPOLL_CTL_MOD和EPOLL_CTL_ADD
            struct epoll_event ev;
            ev.events=event;
            ev.data.fd=sock;//方便我们知道是哪个fd就绪了
 
            n=epoll_ctl(_epfd,oper,sock,&ev);
            if(n!=0)
            {
                perror("add epoll_ctl error");
            }
        }
        return n;
    }
 
private:
    int _epfd;
};

nocopy.hpp

#pragma once  
  
class nocopy  
{  
public:  
    // 允许使用默认构造函数(由编译器自动生成)  
    nocopy() = default;   
  
    // 禁用拷贝构造函数,防止通过拷贝来创建类的实例  
    nocopy(const nocopy&) = delete;   
  
    // 禁用赋值运算符,防止类的实例之间通过赋值操作进行内容复制  
    nocopy& operator=(const nocopy&) = delete;   
};

Serialization.hpp

#pragma
#define CRLF "	"               // 分隔符
#define CRLF_LEN strlen(CRLF)   // 分隔符长度
#define SPACE " "               // 空格
#define SPACE_LEN strlen(SPACE) // 空格长度
#define OPS "+-*/%"             // 运算符
 
#include 
#include 
#include 
#include
 
//参数len为in的长度,是一个输出型参数。如果为0代表err
std::string decode(std::string& in,size_t*len)
{
    assert(len);//如果长度为0是错误的
    
    // 1.确认in的序列化字符串完整(分隔符)
    *len=0;
 
    size_t pos = in.find(CRLF);//查找	第一次出现时的下标
    //查找不到,err
    if(pos == std::string::npos){
        return "";//返回空串
    }
   
    // 2.有分隔符,判断长度是否达标
    // 此时pos下标正好就是标识大小的字符长度
    std::string inLenStr = in.substr(0,pos);//从下标0开始一直截取到第一个	之前
 
    //到这里我们要明白,我们这上面截取的是最开头的长度,也就是说,我们截取到的一定是个数字,这个是我们序列化字符的长度
    
    size_t inLen = atoi(inLenStr.c_str());//把截取的这个字符串转int,inLen就是序列化字符的长度
 
    //传入的字符串的长度 - 第一个	前面的字符数 - 2个	
    size_t left = in.size() - inLenStr.size()- 2*CRLF_LEN;//原本预计的序列化字符串长度
    if(left

 main.cc

 

#include "tcpserver.hpp"
#include 
#include "Serialization.hpp"
 
void DefaultOmMessage(std::shared_ptr connection_ptr)
{
    std::cout << "上层得到了数据:" << connection_ptr->_inbuffer << std::endl;
    std::string inbuf = connection_ptr->_inbuffer;
    size_t packageLen = inbuf.size();
    //由于我们是使用telnet来测试的所以,我们就不解码了
    /*
    // 3.1.解码和反序列化客户端传来的消息
    std::string package = decode(inbuf, &packageLen); // 解码
    if (packageLen == 0)
    {
        printf("decode err: %s[%d] status: %d", connection_ptr->_clientip, connection_ptr->_clientport, packageLen);
        // 报文不完整或有误
    }
    */
 
    Request req;
    bool deStatus = req.deserialize(inbuf); // 使用Request的反序列化,packsge内部各个成员已经有了数值
    if (deStatus)                             // 获取消息反序列化成功
    {
        // 3.2.获取结构化的相应
        Response resp = Caculater(req); // 将计算任务的结果存放到Response里面去
 
        // 3.3.序列化和编码响应
        std::string echoStr;
        resp.serialize(echoStr); // 序列化
 
        //由于我们使用的是telnet来测试的,所以我们不编码了
       // echoStr = encode(echoStr, echoStr.size()); // 编码
 
        // 3.4.写入,发送返回值给输出缓冲区
        connection_ptr->_outbuffer=echoStr;
        std::cout<_outbuffer<_tcp_server_ptr->Sender(connection_ptr);//调用里面的方法来发送
    }
    else // 客户端消息反序列化失败
    {
        printf("deserialize err: %s[%d] status: %d", connection_ptr->_clientip, connection_ptr->_clientport, deStatus);
        return;
    }
    
}
 
int main()
{
    std::unique_ptr svr(new TcpServer(8877, DefaultOmMessage));
    svr->Init();
    svr->Loop();
}

3.12.总结


        Reactor主要围绕事件派发和自动反应展开的,就比如连接请求到来,epoll_wait提醒程序员就绪的事件到来,应该尽快处理,则与就绪事件相关联的sock会对应着一个connection结构体,这个结构体我觉得就是反应堆模式的精华所在,无论是什么样就绪的事件,每个sock都会有对应的回调方法,所以处理就绪的事件很容易,直接回调connection内的对应方法即可,是读事件就调用读方法,是写事件就调用写方法,是异常事件,则在读方法或写方法中处理IO的同时,顺便处理掉异常事件。

        所以我感觉Reactor就像一个化学反应堆,你向这个反应堆里面扔一些连接请求,或者网络数据,则这个反应堆会自动匹配相对应的处理机制来处理到来的事件,很方便,同时由于ET模式和EPOLL,这就让Reactor在处理高并发连接时,展现出了不俗的实力。

本文地址:https://www.vps345.com/6297.html

搜索文章

Tags

PV计算 带宽计算 流量带宽 服务器带宽 上行带宽 上行速率 什么是上行带宽? CC攻击 攻击怎么办 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP 服务器 linux 运维 游戏 云计算 javascript 前端 chrome edge python MCP 阿里云 网络 网络安全 网络协议 llama 算法 opencv 自然语言处理 神经网络 语言模型 进程 操作系统 进程控制 Ubuntu ssh ubuntu deepseek Ollama 模型联网 API CherryStudio 数据库 centos oracle 关系型 安全 分布式 科技 ai java 人工智能 个人开发 RTSP xop RTP RTSPServer 推流 视频 harmonyos 华为 开发语言 typescript 计算机网络 asm php android 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 Dell R750XS vue.js audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 tcp/ip uni-app 深度学习 YOLO 目标检测 计算机视觉 fastapi mcp mcp-proxy mcp-inspector fastapi-mcp agent sse HCIE 数通 pycharm ide pytorch filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 efficientVIT YOLOv8替换主干网络 TOLOv8 鸿蒙 学习 numpy rust http 面试 性能优化 jdk intellij-idea 架构 GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 ssl c# 前端框架 Flask FastAPI Waitress Gunicorn uWSGI Uvicorn flutter Hyper-V WinRM TrustedHosts macos adb udp unity gpu算力 后端 信息与通信 react.js 前端面试题 node.js 持续部署 github AI Agent vscode 代码调试 ipdb oceanbase rc.local 开机自启 systemd 麒麟 flask spring boot AI编程 AIGC chatgpt 大模型 llama3 Chatglm 开源大模型 ping++ 运维开发 conda 机器学习 c++ 深度优先 图论 并集查找 换根法 树上倍增 cuda cudnn anaconda windows 微服务 springcloud 数据结构 c语言 笔记 经验分享 学习方法 ddos ollama llm 嵌入式 linux驱动开发 arm开发 嵌入式硬件 docker 容器 zotero WebDAV 同步失败 代理模式 vim word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 HarmonyOS Next Linux 进程信号 命名管道 客户端与服务端通信 银河麒麟服务器操作系统 系统激活 ESP32 camera Arduino 电子信息 sql KingBase YOLOv12 负载均衡 C 环境变量 进程地址空间 Windsurf 物联网 单片机 智能手机 NAS Termux Samba rabbitmq LDAP mysql aws googlecloud websocket tomcat postman mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 腾讯云 maven intellij idea 实时音视频 智能路由器 外网访问 内网穿透 端口映射 僵尸进程 redis mybatis mongodb git ansible nginx dubbo kubernetes VMware安装Ubuntu Ubuntu安装k8s k8s kamailio sip VoIP 大数据 大数据平台 transformer Qwen2.5-coder 离线部署 sqlserver rust腐蚀 Dify mcu iot .net ffmpeg 音视频 温湿度数据上传到服务器 Arduino HTTP pip 豆瓣 追剧助手 迅雷 nas 微信 gitlab ollama下载加速 Ubuntu Server Ubuntu 22.04.5 golang WSL2 博客 监控 自动化运维 开源 多线程服务器 Linux网络编程 live555 rtsp rtp json html5 firefox 自动化 蓝耘科技 元生代平台工作流 ComfyUI pillow https WSL win11 无法解析服务器的名称或地址 安装教程 GPU环境配置 Ubuntu22 CUDA PyTorch Anaconda安装 django web3.py 小程序 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 web安全 Kali Linux 黑客 渗透测试 信息收集 vue3 HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 .netcore 程序人生 jenkins gitee 创意 社区 DeepSeek-R1 API接口 源码剖析 rtsp实现步骤 流媒体开发 远程控制 远程看看 远程协助 cpu 内存 实时 使用 C语言 低代码 jmeter 软件测试 DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 apache 爬虫 数据挖掘 网络用户购物行为分析可视化平台 大数据毕业设计 1024程序员节 YOLOv8 NPU Atlas800 A300I pro asi_bench mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 fpga开发 gateway Clion Nova ResharperC++引擎 Centos7 远程开发 统信UOS bonding 链路聚合 计算机外设 电脑 mac 软件需求 qt stm32项目 stm32 debian PVE 华为云 产品经理 agi microsoft firewalld 微信分享 Image wxopensdk Linux PID 微信小程序 TRAE Invalid Host allowedHosts vue 远程连接 rdp 实验 wireshark 测试工具 王者荣耀 远程工作 DNS minio Cookie kylin 目标跟踪 OpenVINO 推理应用 jetty undertow express 宠物 毕业设计 免费学习 宠物领养 宠物平台 UOS 统信操作系统 yum postgresql 小艺 Pura X 开机自启动 spring excel MQTT协议 消息服务器 代码 云电竞 云电脑 todesk Portainer搭建 Portainer使用 Portainer使用详解 Portainer详解 Portainer portainer 职场和发展 交换机 硬件 设备 GPU PCI-Express ue4 着色器 ue5 虚幻 MacMini Mac 迷你主机 mini Apple Anolis nginx安装 环境安装 linux插件下载 音乐服务器 Navidrome 音流 tcpdump QQ 机器人 bot Docker shell Reactor 设计模式 C++ Erlang OTP gen_server 热代码交换 事务语义 docker compose ceph MNN DeepSeek Qwen ip list ui sqlite3 freebsd 蓝桥杯 hugo rocketmq 云原生 VR手套 数据手套 动捕手套 动捕数据手套 部署 远程桌面 ruoyi visual studio code DeepSeek行业应用 Heroku 网站部署 串口服务器 dify 深度求索 私域 知识库 3d jupyter zabbix 系统架构 编辑器 av1 电视盒子 机顶盒ROM 魔百盒刷机 命令 CLion IDE 数学建模 思科模拟器 思科 Cisco 腾讯云大模型知识引擎 Deepseek 图像处理 elasticsearch java-ee 压力测试 测试用例 功能测试 kind AI写作 AI作画 服务器配置 输入法 react next.js 部署next.js 聊天室 spring cloud curl wget X11 Xming bash 远程 执行 sshpass 操作 其他 Redis Desktop 报错 muduo RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 具身智能 向日葵 unix idm ArcTS 登录 ArcUI GridItem 弹性计算 虚拟化 KVM 计算虚拟化 弹性裸金属 鸿蒙系统 arkUI devops springboot 设置代理 实用教程 游戏程序 windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 JAVA Java chrome devtools selenium chromedriver linux 命令 sed 命令 集成学习 集成测试 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 vscode 1.86 Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 华为od grafana prometheus 直流充电桩 充电桩 IPMI 漏洞 virtualenv svn ragflow 安全威胁分析 Cursor webrtc SSH Xterminal netty safari 系统 系统安全 云服务器 裸金属服务器 弹性裸金属服务器 p2p unity3d minicom 串口调试工具 银河麒麟 kylin v10 麒麟 v10 Netty 即时通信 NIO pygame 小游戏 五子棋 sdkman 状态管理的 UDP 服务器 Arduino RTOS 驱动开发 eureka n8n 工作流 workflow ip命令 新增网卡 新增IP 启动网卡 能力提升 面试宝典 技术 IT信息化 r语言 数据可视化 nvidia 计算机 jar gradle rpc nuxt3 C# MQTTS 双向认证 emqx docker命令大全 软件工程 5G 3GPP 卫星通信 边缘计算 智能硬件 ESXi 指令 mq kafka IIS服务器 IIS性能 日志监控 mysql离线安装 ubuntu22.04 mysql8.0 openssl 密码学 DevEco Studio 源码 课程设计 业界资讯 服务器繁忙 模拟退火算法 混合开发 JDK code-server MQTT mosquitto 消息队列 SysBench 基准测试 数据分析 程序员 大语言模型 sqlite MS Materials threejs 3D NFS hibernate 监控k8s 监控kubernetes iBMC UltraISO centos-root /dev/mapper yum clean all df -h / du -sh echarts 信息可视化 网页设计 京东云 Docker Hub docker pull 镜像源 daemon.json 数据库系统 命令行 基础入门 编程 Dell HPE 联想 浪潮 AI大模型 大模型入门 大模型教程 remote-ssh 缓存 LLM 大模型面经 大模型学习 国产操作系统 ukui 麒麟kylinos openeuler 统信 虚拟机安装 框架搭建 WebUI DeepSeek V3 宝塔面板 同步 备份 建站 asp.net大文件上传 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 .net mvc断点续传 火绒安全 VPS Nuxt.js openEuler okhttp CORS 跨域 playbook 剧本 雨云 NPS 孤岛惊魂4 飞牛NAS 飞牛OS MacBook Pro uniapp 恒源云 cnn 并查集 leetcode vSphere vCenter 软件定义数据中心 sddc RTMP 应用层 工业4.0 IPMITOOL BMC 硬件管理 企业微信 Linux24.04 deepin opcua opcda KEPServer安装 oneapi 大模型微调 open webui Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 监控k8s集群 集群内prometheus Playwright 自动化测试 matlab 传统数据库升级 银行 LLMs mariadb gpt linux上传下载 android studio 鲲鹏 FTP 服务器 k8s集群资源管理 云原生开发 网站搭建 serv00 hadoop 微信开放平台 微信公众平台 微信公众号配置 远程登录 telnet vmware 卡死 SSH 服务 SSH Server OpenSSH Server Cline 自动化编程 pdf VSCode 华为认证 网络工程师 移动云 iftop 网络流量监控 服务器数据恢复 数据恢复 存储数据恢复 raid5数据恢复 磁盘阵列数据恢复 ai小智 语音助手 ai小智配网 ai小智教程 esp32语音助手 diy语音助手 visualstudio make命令 makefile文件 ros2 moveit 机器人运动 SSL 域名 Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 Trae AI代码编辑器 安卓 AI 原生集成开发环境 Trae AI Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 显示过滤器 安装 ICMP Wireshark安装 SWAT 配置文件 服务管理 网络共享 硬件工程 嵌入式实习 流式接口 URL 本地部署 api web pyqt 半虚拟化 硬件虚拟化 Hypervisor Kylin-Server 服务器安装 rime EasyConnect micropython esp32 mqtt 文件系统 路径解析 ecmascript nextjs reactjs ci/cd RustDesk自建服务器 rustdesk服务器 docker rustdesk 黑客技术 服务器管理 配置教程 网站管理 网工 opensearch helm pgpool 搜索引擎 ssrf 失效的访问控制 WebRTC openwrt 田俊楠 ux 多线程 open Euler dde RAGFLOW RAG 检索增强生成 文档解析 大模型垂直应用 xrdp string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap 游戏服务器 TrinityCore 魔兽世界 客户端 adobe elk 交互 Python 网络编程 聊天服务器 套接字 TCP Socket 雨云服务器 springsecurity6 oauth2 授权服务器 token sas 环境迁移 崖山数据库 YashanDB 技能大赛 医疗APP开发 app开发 Ubuntu 24.04.1 轻量级服务器 redhat W5500 OLED u8g2 TCP服务器 chfs ubuntu 16.04 群晖 文件分享 中间件 iis 数据集 实时互动 相差8小时 UTC 时间 selete 高级IO 网络穿透 银河麒麟操作系统 国产化 远程过程调用 Windows环境 直播推流 服务器部署ai模型 政务 分布式系统 监控运维 Prometheus Grafana rsyslog bug 毕设 protobuf 序列化和反序列化 OD机试真题 华为OD机试真题 服务器能耗统计 webstorm kvm 无桌面 媒体 risc-v kali 共享文件夹 虚拟机 CPU 主板 电源 网卡 ipython ios html css 北亚数据恢复 oracle数据恢复 联想开天P90Z装win10 etcd 数据安全 RBAC 强制清理 强制删除 mac废纸篓 金融 bootstrap ecm bpm 繁忙 解决办法 替代网站 汇总推荐 AI推理 VMware 压测 ECS docker run 数据卷挂载 交互模式 dba 灵办AI 宕机切换 服务器宕机 Ark-TS语言 XCC Lenovo skynet cmos 硬件架构 docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos Minecraft embedding springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 图形化界面 RAID RAID技术 磁盘 存储 eNSP 网络规划 VLAN 企业网络 GCC crosstool-ng thingsboard linux环境变量 iDRAC R720xd wsl2 wsl VMware安装mocOS macOS系统安装 多进程 dell服务器 go gcc 多层架构 解耦 IIS .net core Hosting Bundle .NET Framework vs2022 XFS xfs文件系统损坏 I_O error es jvm k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm 磁盘监控 系统开发 binder 车载系统 framework 源码环境 分析解读 生物信息学 Google pay Apple pay gitea 服务器主板 AI芯片 Docker Compose docker-compose file server http server web server arcgis 本地部署AI大模型 LInux 我的世界服务器搭建 Wi-Fi seatunnel g++ g++13 nac 802.1 portal 信号 Spring Security 我的世界 我的世界联机 数码 pyautogui 服务器时间 云服务 ISO镜像作为本地源 rag ragflow 源码启动 视觉检测 运维监控 ocr k8s二次开发 集群管理 VMware创建虚拟机 tidb GLIBC Linux环境 IM即时通讯 剪切板对通 HTML FORMAT ruby prompt saltstack mamba Vmamba 网络结构图 yaml Ultralytics 可视化 DIFY 代理 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 程序员创富 pppoe radius epoll DeepSeek r1 Open WebUI cd 目录切换 阿里云ECS gaussdb OpenManus dns是什么 如何设置电脑dns dns应该如何设置 xss 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 宝塔 匿名管道 miniapp 真机调试 调试 debug 断点 网络API请求调试方法 apt 国内源 frp Node-Red 编程工具 流编程 AI agent 架构与原理 tensorflow eclipse HarmonyOS 7z 游戏引擎 NLP模型 NLP 自学笔记 小米 澎湃OS Android 个人博客 bat keepalived sonoma 自动更新 小番茄C盘清理 便捷易用C盘清理工具 小番茄C盘清理的优势尽显何处? 教你深度体验小番茄C盘清理 C盘变红?!不知所措? C盘瘦身后电脑会发生什么变化? xshell termius iterm2 Linux的基础指令 neo4j 数据仓库 数据库开发 database 算力 less IDEA EMQX 通信协议 xcode 服务网格 istio 链表 edge浏览器 lua vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 langchain deep learning rclone AList webdav fnOS 社交电子 昇腾 npu aarch64 编译安装 HPC Deepseek-R1 私有化部署 推理模型 相机 权限 laravel 性能测试 自动化任务管理 音乐库 飞牛 junit easyui 序列化反序列化 matplotlib tcp 显示管理器 lightdm gdm 实习 阻塞队列 生产者消费者模型 服务器崩坏原因 midjourney log4j yum源切换 更换国内yum源 ubuntu24.04.1 sentinel 历史版本 下载 IO模型 语法 etl 飞牛nas fnos 图形渲染 vr 游戏机 黑苹果 wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 HTTP 服务器控制 ESP32 DeepSeek 文心一言 备选 网站 调用 示例 银河麒麟桌面操作系统 Kylin OS AD域 捆绑 链接 谷歌浏览器 youtube google gmail 安全架构 WSL2 上安装 Ubuntu 技术共享 vpn c/c++ 串口 免费域名 域名解析 vasp安装 查询数据库服务IP地址 SQL Server DocFlow 语音识别 AutoDL alias unalias 别名 干货分享 黑客工具 密码爆破 执法记录仪 智能安全帽 smarteye EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP fd 文件描述符 regedit 开机启动 用户缓冲区 模拟实现 IMX317 MIPI H265 VCU Radius Linux的权限 ArkTs ArkUI 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 支付 微信支付 开放平台 qt项目 qt项目实战 qt教程 AISphereButler EtherCAT转Modbus ECT转Modbus协议 EtherCAT转485网关 ECT转Modbus串口网关 EtherCAT转485协议 ECT转Modbus网关 hive Hive环境搭建 hive3环境 Hive远程模式 webgl SenseVoice 银河麒麟高级服务器 外接硬盘 Kylin 考研 Mac内存不够用怎么办 根服务器 华为机试 cocoapods 做raid 装系统 Java Applet URL操作 服务器建立 Socket编程 网络文件读取 Claude npm AnythingLLM AnythingLLM安装 版本 yolov8 flash-attention Kali 渗透 DenseNet 升级 CVE-2024-7347 CrewAI 内网服务器 内网代理 内网通信 VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 qemu libvirt 需求分析 规格说明书 WebVM 基础环境 策略模式 单例模式 流水线 脚本式流水线 big data 移动魔百盒 飞书 USB转串口 CH340 Ubuntu22.04 开发人员主页 web3 trea idea 邮件APP 免费软件 uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 矩阵 反向代理 can 线程池 网络药理学 生信 gromacs 分子动力学模拟 MD 动力学模拟 AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 USB网络共享 无人机 VS Code 单一职责原则 小智AI服务端 xiaozhi ASR TTS 可信计算技术 ssh漏洞 ssh9.9p2 CVE-2025-23419 AD 域管理 spark HistoryServer Spark YARN jobhistory Headless Linux 游戏开发 asp.net大文件上传下载 键盘 自定义客户端 SAS lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 僵尸世界大战 游戏服务器搭建 zookeeper arm nfs 推荐算法 iphone 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 banner 毕昇JDK Windows ai工具 v10 软件 ldap armbian u-boot powerpoint minecraft dity make 迁移指南 GIS 遥感 WebGIS 大大通 第三代半导体 碳化硅 回显服务器 UDP的API使用 分布式训练 项目部署到linux服务器 项目部署过程 实战案例 ftp 远程服务 单元测试 Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 perf DBeaver kerberos ROS 自动驾驶 cpp-httplib 产测工具框架 IMX6ULL 管理框架 MI300x firewall openstack Xen 信号处理 vscode1.86 1.86版本 ssh远程连接 SSE cfssl x64 SIGSEGV xmm0 稳定性 看门狗 MacOS录屏软件 LLM Web APP Streamlit composer Typore outlook SRS 流媒体 直播 开发环境 SSL证书 Logstash 日志采集 sysctl.conf vm.nr_hugepages 影刀 #影刀RPA# 串口驱动 CH341 uart 485 UOS1070e clickhouse 代码托管服务 odoo 服务器动作 Server action c 交叉编译 视频编解码 聚类 dash 正则表达式 bcompare Beyond Compare 模拟器 教程 figma 虚拟局域网 强化学习 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 rustdesk OpenSSH EMUI 回退 降级 swoole 三级等保 服务器审计日志备份 致远OA OA服务器 服务器磁盘扩容 FTP服务器 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 gpt-3 linux安装配置 dns 网络攻击模型 显卡驱动 嵌入式Linux IPC 大模型应用 GoogLeNet 互信 IPv4 子网掩码 公网IP 私有IP 主从复制 多个客户端访问 IO多路复用 TCP相关API 人工智能生成内容 软考 tailscale derp derper 中转 triton 模型分析 线性代数 电商平台 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 大文件秒传跨域报错cors C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 CDN xml 安防软件 端口测试 Ubuntu共享文件夹 共享目录 Linux共享文件夹 线程 seleium 虚拟显示器 cursor MCP server C/S windows日志 双系统 GRUB引导 Linux技巧 DOIT 四博智联 Unity Dedicated Server Host Client 无头主机 软件构建 换源 Debian RAGFlow 本地知识库部署 DeepSeek R1 模型 flink P2P HDLC lio-sam SLAM trae uv glibc 常用命令 文本命令 目录命令 python3.11 ros Jellyfin LORA 重启 排查 系统重启 日志 原因 TrueLicense H3C 软负载 AI-native Docker Desktop 前后端分离 超融合 wps 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 读写锁 办公自动化 自动化生成 pdf教程 英语 rnn FunASR 佛山戴尔服务器维修 佛山三水服务器维修 健康医疗 互联网医院 UDP vu大文件秒传跨域报错cors MDK 嵌入式开发工具 论文笔记 sublime text ubuntu20.04 ros1 Noetic 20.04 apt 安装 top Linux top top命令详解 top命令重点 top常用参数 react native db rpa 带外管理 onlyoffice 端口聚合 windows11 CentOS Stream CentOS Linux find grep 钉钉 大模型推理 System V共享内存 进程通信 jina HiCar CarLife+ CarPlay QT RK3588 docker desktop image ShenTong 网络建设与运维 云耀服务器 端口 查看 ss KylinV10 麒麟操作系统 Vmware 上传视频文件到服务器 uniApp本地上传视频并预览 uniapp移动端h5网页 uniapp微信小程序上传视频 uniapp app端视频上传 uniapp uview组件库 xpath定位元素 欧标 OCPP 物联网开发 docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 word 开发 域名服务 DHCP 符号链接 配置 合成模型 扩散模型 图像生成 SEO 树莓派 VNC 镜像 nlp 软件卸载 系统清理 OpenHarmony 鸿蒙开发 移动开发 Linux权限 权限命令 特殊权限 信创 信创终端 中科方德 sequoiaDB 金仓数据库 2025 征文 数据库平替用金仓 抓包工具 fast Xinference prometheus数据采集 prometheus数据模型 prometheus特点 加解密 Yakit yaklang PX4 MacOS perl 李心怡 SVN Server tortoise svn 流量运营 软链接 硬链接 进程优先级 调度队列 进程切换 docker部署Python HAProxy 本地化部署 Python基础 Python教程 Python技巧 WLAN 在线office chrome 浏览器下载 chrome 下载安装 谷歌浏览器下载 私有化 zip unzip 玩机技巧 软件分享 软件图标 llama.cpp MySql kernel 网络爬虫 harmonyOS面试题 autodl 状态模式 su sudo 增强现实 沉浸式体验 应用场景 技术实现 案例分析 AR 多路转接 问题解决 ubuntu24 vivado24 IMM rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK kotlin ssh远程登录 虚幻引擎 Qwen2.5-VL vllm virtualbox 浏览器开发 AI浏览器 grub 版本升级 扩容 nosql Sealos hexo wpf deepseek r1 企业网络规划 华为eNSP 性能调优 安全代理 嵌入式系统开发 粘包问题 代理服务器 rancher 烟花代码 烟花 元旦 java-rocketmq win服务器架设 windows server 极限编程 网络搭建 神州数码 神州数码云平台 云平台 searxng PPI String Cytoscape CytoHubba navicat 内网环境 h.264 ip协议 拓扑图 大模型部署 知识图谱 Attention deekseek TCP协议 网卡的名称修改 eth0 ens33 抗锯齿 milvus 区块链 ABAP 查看显卡进程 fuser ArtTS MVS 海康威视相机 nvm whistle 存储维护 NetApp存储 EMC存储 程序 性能分析 visual studio proxy模式 磁盘清理 gnu ranger MySQL8.0 容器技术 智能音箱 智能家居 中兴光猫 换光猫 网络桥接 自己换光猫 SSH 密钥生成 SSH 公钥 私钥 生成 多端开发 智慧分发 应用生态 鸿蒙OS docker搭建pg docker搭建pgsql pg授权 postgresql使用 postgresql搭建 iperf3 带宽测试 hosts QT 5.12.12 QT开发环境 Ubuntu18.04 元服务 应用上架 防火墙 NAT转发 NAT Server wsgiref Web 服务器网关接口 虚拟现实 对比 工具 meld DiffMerge 环境配置 浏览器自动化 项目部署 ardunio BLE 云桌面 微软 AD域控 证书服务器 沙盒 计算生物学 生物信息 基因组 Unity插件 iventoy VmWare OpenEuler css3 HarmonyOS NEXT 原生鸿蒙 deployment daemonset statefulset cronjob AI Agent 字节智能运维 fstab 风扇控制软件 搜狗输入法 中文输入法 达梦 DM8 搭建个人相关服务器 热榜 yolov5 接口优化 js 数字证书 签署证书 智能电视 解决方案 vnc 服务器正确解析请求体 yum换源 AI员工 IO 开机黑屏 MAVROS 四旋翼无人机 电视剧收视率分析与可视化平台 离线部署dify 论文阅读 centos 7 openvpn server openvpn配置教程 centos安装openvpn MobaXterm 安装MySQL 通信工程 毕业 conda配置 conda镜像源 ubuntu 18.04 dock 加速 像素流送api 像素流送UE4 像素流送卡顿 像素流送并发支持 macOS 西门子PLC 通讯 mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解