Reactor模型通过epoll实现高效I/O多路复用,以事件驱动方式处理并发连接。核心组件包括事件分发器(epoll)、事件处理器和事件循环。程序首先创建epoll实例,注册监听socket的EPOLLIN事件,进入循环等待。当有新连接时,accept并将其设为非阻塞,加入epoll监控;对已连接客户端,读取数据后回显。关键点在于使用非阻塞I/O避免阻塞主线程,合理管理事件注册与回调,选择边缘触发提升性能,并在关闭连接时及时清理资源。该模型广泛用于Nginx、Redis等高性能系统。

事件驱动框架的核心在于高效处理大量并发I/O操作,而Linux下的Reactor模型正是实现这一目标的经典方式。它通过一个中心事件循环监听多个文件描述符的就绪状态,一旦某个描述符可读或可写,就调用对应的处理函数,避免了多线程或多进程带来的资源开销。下面以一个简单的TCP服务器为例,展示如何在Linux下基于epoll实现Reactor模型。
Reactor模型基本组成
Reactor模式主要包括以下几个部分:
- 事件分发器(Event Demultiplexer):在Linux中通常使用epoll,用于监听多个文件描述符的状态变化。
- 事件处理器(EventHandler):每个连接对应一个处理器,负责处理读写事件。
- Reactor核心循环:运行事件循环,等待事件发生并分发给对应的处理器。
使用epoll实现事件监听
epoll是Linux提供的高效I/O多路复用机制,适合管理大量并发连接。基本流程如下:
- 创建epoll实例:
epoll_create1(0) - 向epoll注册文件描述符,如监听socket和客户端socket,并指定关注的事件(EPOLLIN、EPOLLOUT等)
- 调用
epoll_wait阻塞等待事件到来 - 遍历就绪事件,分发给对应的处理逻辑
代码结构示例
以下是一个简化的Reactor模型实现框架:
#include#include #include #include define MAX_EVENTS 10
define PORT 8080
// 事件处理器接口 typedef void (event_handler)(int fd, int events, void arg);
struct handler { int fd; event_handler read_cb; event_handler write_cb; void *arg; };
int epoll_fd; struct handler handlers[1024];
void add_event(int fd, int events, event_handler cb, void *arg) { struct epoll_event ev; ev.events = events; ev.data.fd = fd; epoll_ctl(epoll_fd, EPOLL_CTL_ADD, fd, &ev);
handlers[fd].fd = fd; handlers[fd].read_cb = cb; handlers[fd].write_cb = (events & EPOLLOUT) ? cb : NULL; handlers[fd].arg = arg;}
void handle_accept(int listen_fd, int events, void arg); void handle_read(int client_fd, int events, void arg);
int main() { epoll_fd = epoll_create1(0); if (epoll_fd == -1) { / error / }
int listen_fd = socket(AF_INET, SOCK_STREAM, 0); // 设置非阻塞 fcntl(listen_fd, F_SETFL, O_NONBLOCK); struct sockaddr_in addr = { .sin_family = AF_INET, .sin_port = htons(PORT), .sin_addr.s_addr = INADDR_ANY }; bind(listen_fd, (struct sockaddr*)&addr, sizeof(addr)); listen(listen_fd, 5); add_event(listen_fd, EPOLLIN, handle_accept, NULL); struct epoll_event events[MAX_EVENTS]; while (1) { int n = epoll_wait(epoll_fd, events, MAX_EVENTS, -1); for (int i = 0; i < n; i++) { int fd = events[i].data.fd; if (events[i].events & EPOLLIN) { handlers[fd].read_cb(fd, events[i].events, handlers[fd].arg); } if (events[i].events & EPOLLOUT) { handlers[fd].write_cb(fd, events[i].events, handlers[fd].arg); } } } return 0;}
void handle_accept(int listen_fd, int events, void arg) { struct sockaddr_in client_addr; socklen_t len = sizeof(client_addr); int client_fd = accept(listen_fd, (struct sockaddr)&client_addr, &len); if (client_fd == -1) return;
fcntl(client_fd, F_SETFL, O_NONBLOCK); add_event(client_fd, EPOLLIN, handle_read, NULL);}
void handle_read(int client_fd, int events, void *arg) { char buf[1024]; ssize_t n = read(client_fd, buf, sizeof(buf)-1); if (n
关键设计要点
- 非阻塞I/O:所有文件描述符必须设为非阻塞,防止在read/write时阻塞整个事件循环。
- 事件注册与回调分离:每个fd绑定读写回调函数,事件到来时由Reactor统一调度。
- 边缘触发 vs 水平触发:使用EPOLLET可启用边缘触发,减少事件重复通知,但需一次性处理完数据。
- 资源管理:连接关闭时要从epoll中删除并释放相关资源。
基本上就这些。通过epoll结合回调机制,可以构建出高性能、低延迟的网络服务程序。这种模型广泛应用于Nginx、Redis等系统中。掌握它对深入理解Linux网络编程非常有帮助。不复杂但容易忽略细节,比如非阻塞设置和事件完整性处理。











