多路IO转接服务器

多路I/O转接服务器

多路IO转接服务器也叫做多任务IO服务器。该类服务器实现的主旨思想是,不再由应用程序自己监视客户端连接,取而代之由内核替应用程序监视文件

select

int select(int nfds, fd_set * readfds, fd_set *writefds, fd_set *exceptfds, struct timeval *timeout);

//委托内核监控该文件描述符对应的读,写或者错误事件的发生.

//nfds: 告诉内核要监控文件描述符的范围,一般取值为最大的文件描述符+1
//readfds: 读集合, 是一个传入传出参数
//传入: 指的是告诉内核哪些文件描述符需要监控
//传出: 指的是内核告诉应用程序哪些文件描述符发生了变化
//writefds: 写文件描述符集合(传入传出参数)
//execptfds: 异常文件描述符集合(传入传出参数)
//timeout: 
//NULL--表示永久阻塞, 直到有事件发生
//0 --表示不阻塞, 立刻返回, 不管是否有监控的事件发生
//>0--表示阻塞时长,若没有超过时长,则一直阻塞;若在时长内,有事件发生则立刻返回,若超过时长,则立刻返回
	
//成功返回发生变化的文件描述符的个数,失败返回-1, 并设置errno
void FD_CLR(int fd, fd_set *set);
//将fd从set集合中清除

int FD_ISSET(int fd, fd_set *set);
//判断fd是否在集合中
//如果fd在set集合中, 返回1, 否则返回0

void FD_SET(int fd, fd_set *set);
//将fd设置到set集合中

void FD_ZERO(fd_set *set);
//初始化set集合

使用select开发服务端

#include<stdio.h>
#include<stdlib.h>
#include<string.h>
#include<sys/types.h>
#include<unistd.h>
#include<arpa/inet.h>
#include<netinet/in.h>
#include<ctype.h>
#include<errno.h>

int main()
{
    
    
    //创建socket
    int lfd=socket(AF_INET,SOCK_STREAM,0);

    //设置端口复用
    int opt=1;
    setsockopt(lfd,SOL_SOCKET,SO_REUSEADDR,&opt,sizeof(int));

    //绑定
    struct sockaddr_in serv;
    bzero(&serv,sizeof(serv));
    serv.sin_family=AF_INET;
    serv.sin_port=htons(8888);
    serv.sin_addr.s_addr=htonl(INADDR_ANY);
    bind(lfd,(struct sockaddr*)&serv,sizeof(serv));

    //监听
    listen(lfd,128);

    //定义fd_set
    fd_set readfds;
    fd_set tmpfds;

    //清空fd_Set集合
    FD_ZERO(&readfds);
    FD_ZERO(&tmpfds);

    //将lfd加入到readfds中,委托内核监考
    FD_SET(lfd,&readfds);

    int maxfd=lfd;
    int nready;
    int cfd;
    int i;
    int sockfd;
    int n;
    char buf[1024];
    while(1)
    {
    
    
        tmpfds=readfds;
        nready=select(maxfd+1,&tmpfds,NULL,NULL,NULL);
        if(nready<0)
        {
    
    
            if(errno==EINTR)//被信号中断
            {
    
    
                continue;
            }
            break;
        }

        //有客户端连接请求到来
        if(FD_ISSET(lfd,&tmpfds))
        {
    
    
            //接受新的客户端连接请求
            cfd=accept(lfd,NULL,NULL);

            //将cfd加入到readfds集合中
            FD_SET(cfd,&readfds);

            //修改select的监考范围
            if(maxfd<cfd)
            {
    
    
                maxfd=cfd;
            }

            if(--nready==0)
            {
    
    
                continue;
            }

        }

        //有数据发来情况
        for(i=lfd+1;i<=maxfd;i++)
        {
    
    
            sockfd=i;
            if(FD_ISSET(sockfd,&tmpfds))
            {
    
    
                //读数据
                memset(buf,0x00,sizeof(buf));
                n=read(sockfd,buf,sizeof(buf));
                if(n<=0)
                {
    
    
                    //关闭连接
                    close(cfd);

                    //将sockfd从readfds集合中删除
                    FD_CLR(sockfd,&readfds);
                }
                else
                {
    
    
                    printf("n==[%d],buf==[%s]\n",n,buf);

                    int k;
                    for(k=0;k<n;k++)
                    {
    
    
                        buf[k]=toupper(buf[k]);
                    }
                    write(cfd,buf,n);
                }

                if(--nready==0)
                {
    
    
                    break;
                }
            }
        }

    }


    close(lfd);
    return 0;
}

如果有效的文件描述符比较少, 会使循环的次数太多

解决:可以将有效的文件描述符放到一个数组当中, 这样遍历效率就高

select优点

  • 一个进程可以支持多个客户端
  • select支持跨平台

select缺点

  • 代码编写困难
  • 会涉及到用户区到内核区的来回拷贝
  • 当客户端多个连接, 但少数活跃的情况, select效率较低

例如: 作为极端的一种情况, 3-1023文件描述符全部打开, 但是只有1023有发送数据, select就显得效率低下

  • 最大支持1024个客户端连接

select能监听的文件描述符个数受限于FD_SETSIZE

select最大支持1024个客户端连接不是由文件描述符表最多可以支持1024个文件描述符限制的, 而是由FD_SETSIZE=1024限制的

FD_SETSIZE=1024 fd_set使用了该宏, 可以修改内核, 然后再重新编译内核, 一般不建议这么做

  • 解决1024以下客户端时使用select是很合适的,但如果链接客户端过多,select采用的是轮询模型,会大大降低服务器响应效率,不应在select上投入更多精力

poll

int poll(struct pollfd *fds, nfds_t nfds, int timeout);
//跟select类似, 监控多路IO, 但poll不能跨平台

//fds: 传入传出参数, 实际上是一个结构体数组
//fds.fd: 要监控的文件描述符
//fds.events: 
//POLLIN---->读事件
//POLLOUT---->写事件
//fds.revents: 返回的事件
//nfds: 数组实际有效内容的个数
//timeout: 超时时间, 单位是毫秒.
//-1:永久阻塞, 直到监控的事件发生
//0: 不管是否有事件发生, 立刻返回
//>0: 直到监控的事件发生或者超时
//成功:返回就绪事件的个数,失败: 返回-1
//若timeout=0, poll函数不阻塞,且没有事件发生, 此时返回-1, 并且errno=EAGAIN, 这种情况不应视为错误

struct pollfd 
{
    
    
   int   fd;        /* file descriptor */   //监控的文件描述符
   short events;     /* requested events */  //要监控的事件---不会被修改
   short revents;    /* returned events */   //返回发生变化的事件 ---由内核返回
};

//当poll函数返回的时候, 结构体当中的fd和events没有发生变化, 究竟有没有事件发生由revents来判断, 所以poll是请求和返回分离
//struct pollfd结构体中的fd成员若赋值为-1, 则poll不会监控
//相对于select, poll没有本质上的改变; 但是poll可以突破1024的限制
//在/proc/sys/fs/file-max查看一个进程可以打开的socket描述符上限
//如果需要可以修改配置文件: /etc/security/limits.conf
//加入如下配置信息, 然后重启终端即可生效
//soft nofile 1024
//hard nofile 100000
//soft和hard分别表示ulimit命令可以修改的最小限制和最大限制

epoll

//将检测文件描述符的变化委托给内核去处理, 然后内核将发生变化的文件描述符对应的事件返回给应用程序

int epoll_create(int size);
//创建一个树根
//size: 最大节点数, 此参数在linux 2.6.8已被忽略, 但必须传递一个大于0的数
//成功: 返回一个大于0的文件描述符, 代表整个树的树根
//失败: 返回-1, 并设置errno值

int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
//将要监听的节点在epoll树上添加, 删除和修改
//epfd: epoll树根
//op:
//EPOLL_CTL_ADD: 添加事件节点到树上
//EPOLL_CTL_DEL: 从树上删除事件节点
//EPOLL_CTL_MOD: 修改树上对应的事件节点
//fd: 事件节点对应的文件描述符
//event: 要操作的事件节点

typedef union epoll_data {
    
    
	void        *ptr;
	int          fd;
	uint32_t     u32;
	uint64_t     u64;
} epoll_data_t;

struct epoll_event {
    
    
	uint32_t     events;      /* Epoll events */
	epoll_data_t data;        /* User data variable */
};

//event.events常用的有:
//EPOLLIN: 读事件
//EPOLLOUT: 写事件
//EPOLLERR: 错误事件
//EPOLLET: 边缘触发模式
//event.fd: 要监控的事件对应的文件描述符


int epoll_wait(int epfd, struct epoll_event *events, int maxevents, int timeout);
//等待内核返回事件发生
//epfd: epoll树根
//events: 传出参数, 其实是一个事件结构体数组
//maxevents: 数组大小
//timeout:
//-1: 表示永久阻塞
//0: 立即返回
//>0: 表示超时等待事件
//成功: 返回发生事件的个数
//失败: 若timeout=0, 没有事件发生则返回; 返回-1, 设置errno值, 

//epoll_wait的events是一个传出参数, 调用epoll_ctl传递给内核什么值, 当epoll_wait返回的时候, 内核就传回什么值,不会对struct event的结构体变量的值做任何修改
#include<stdio.h>
#include<stdlib.h>
#include<string.h>
#include<sys/types.h>
#include<unistd.h>
#include<arpa/inet.h>
#include<netinet/in.h>
#include<ctype.h>
#include<errno.h>
#include<sys/epoll.h>

int main()
{
    
    
    int ret,n,i,nready,lfd,cfd,sockfd,epfd,k;
    char buf[1024];
    socklen_t socklen;
    struct sockaddr_in svraddr;
    struct epoll_event ev;
    struct epoll_event events[1024];

    //创建socket
    lfd=socket(AF_INET,SOCK_STREAM,0);

    //设置端口复用
    int opt=1;
    setsockopt(lfd,SOL_SOCKET,SO_REUSEADDR,&opt,sizeof(int));

    //绑定
    struct sockaddr_in serv;
    bzero(&serv,sizeof(serv));
    serv.sin_family=AF_INET;
    serv.sin_port=htons(8888);
    serv.sin_addr.s_addr=htonl(INADDR_ANY);
    bind(lfd,(struct sockaddr*)&serv,sizeof(serv));

    //监听
    listen(lfd,128);

    //创建一棵epoll数
    epfd=epoll_create(1024);
    if(epfd<0)
    {
    
    
        perror("create epoll error");
        return -1;
    }

    //将lfd上epoll树
    ev.data.fd=lfd;
    ev.events=EPOLLIN;
    epoll_ctl(epfd,EPOLL_CTL_ADD,lfd,&ev);

    while(1)
    {
    
    
        nready=epoll_wait(epfd,events,1024,-1);
        if(nready<0)
        {
    
    
            perror("epoll wait error");
            if(errno==EINTR)
            {
    
    
                continue;
            }
            break;
        }

        for(i=0;i<nready;i++)
        {
    
    
            //有客户端连接请求
            sockfd=events[i].data.fd;
            if(sockfd==lfd)
            {
    
    
                cfd=accept(lfd,NULL,NULL);
                //将新cfd上epoll树
                ev.data.fd=cfd;
                ev.events=EPOLLIN;
                epoll_ctl(epfd,EPOLL_CTL_ADD,cfd,&ev);
                continue;
            }

            //有数据发生过来
            memset(buf,0x00,sizeof(buf));
            n=read(sockfd,buf,sizeof(buf));
            if(n<=0)
            {
    
    
                close(sockfd);
                //将sockfd对应的事件就节点从epoll树上删除
                epoll_ctl(epfd,EPOLL_CTL_DEL,sockfd,NULL);
            }
            else
            {
    
    
                for(k=0;k<n;k++)
                {
    
    
                    buf[k]=toupper(buf[k]);
                }
                write(sockfd,buf,n);
            }
        }
    }
    close(epfd);
    close(lfd);
    return 0;
}

epoll的两种工作模式ET和LT

水平触发: 高电平代表1

  • 只要缓冲区中有数据, 就一直通知

边缘触发: 电平有变化就代表1

  • 缓冲区中有数据只会通知一次, 之后再有数据才会通知(若是读数据的时候没有读完, 则剩余的数据不会再通知, 直到有新的数据到来)

边缘非阻塞模式: 提高效率

epoll默认情况是LT模式,在该模式下,若读数据一次性没有读完,缓冲区还有可读数据,则epoll_wait还会再次通知

若将epoll设置为ET模式,若读数据的时候一次性没有读完,则epoll_wait不再通知,直到下次有新的数据发来6

epoll反应堆

反应堆: 一个小事件触发一系列反应.

epoll反应堆的思想: c++的封装思想(把数据和操作封装到一起)

​ --将描述符,事件,对应的处理方法封装在一起

​ --当描述符对应的事件发生了, 自动调用处理方法(其实原理就是回调函数)

epoll反应堆的核心思想是: 在调用epoll_ctl函数的时候, 将events上树的时候,利用epoll_data_t的ptr成员, 将一个文件描述符,事件和回调函数封装成一个结构体, 然后让ptr指向这个结构体, 然后调用epoll_wait函数返回的时候, 可以得到具体的events, 然后获得events结构体中的events。data.ptr指针, ptr指针指向的结构体中有回调函数, 最终可以调用这个回调函数

猜你喜欢

转载自blog.csdn.net/blll0/article/details/121618409