SRS4.0源代码分析之RTMP推流处理

目标:

    本章我们将分析SRS4.0 RTMP服务模块与推流相关的代码处理逻辑。

SRS4.0针对RTMP推流客户端的处理逻辑,主要在协程SrsRtmpConn::stream_service_cycle()中通过调用SrsRtmpConn::publishing()函数进行处理。(为了方便理解,下面函数使用了简化后的伪代码,但不影响理解函数的主流程)

1、检测是否可以向当前的source对象推流,如果source的状态是已经有人在推流了,则acquire_publish函数返回失败。

2、创建推流端接收协程SrsPublishRecvThread,这个协程用于实际接收客户端向服务器发送的推流数据。

3、SrsRtmpConn协程将在do_publishing函数内部循环处理,主要工作是统计接收的数据,监控上述接收协程。

srs_error_t SrsRtmpConn::publishing(SrsLiveSource* source)
{
    http_hooks_on_publish();   // 此回调函数向外通知客户端推流开始
    
    // 检测是否可以向当前的source对象推流,如果source的状态是已经有人在推流了,则acquire_publish函数返回失败
    if ((err = acquire_publish(source)) == srs_success) 
    {
        // 创建推流端接收协程,这个协程用于实际接收客户端向服务器发送的推流数据
        SrsPublishRecvThread rtrd(rtmp, req, srs_netfd_fileno(stfd), 0, this, source, );  
        
        // SrsRtmpConn协程将在do_publishing函数内部循环处理,
        // 同时do_publishing函数内部还会启动SrsPublishRecvThread协程
        err = do_publishing(source, &rtrd);  
                                         
        rtrd.stop();  // 执行到这里,表示SrsRtmpConn协程退出循环,这里是主动结束之前创建的接收协程
    }
    
    release_publish(source); // 推流结束,释放source中的推流信息
    
    http_hooks_on_unpublish();   // 此回调函数向外通知客户端推流结束
}

SrsRtmpConn协程在推流端的处理,主要工作是统计接收的数据,并检测如果没有接收到新数据,则结束协程

srs_error_t SrsRtmpConn::do_publishing(SrsLiveSource* source, SrsPublishRecvThread* rtrd)
{
    rtrd->start();  // 启动接收协程
    while (true) {  // conn协程好像主要做统计工作,以及判断接收数据超时后退出do_publishing
        
        if ((err = trd->pull()) != srs_success)  // 协程运行出错,则结束协程
            return srs_error_wrap();
        
        if (nb_msgs == 0) {  
            rtrd->wait(20秒);  // 如果是第一次接收报文,conn协程在此阻塞20秒
        } 
        else {   
            rtrd->wait(5秒);   // 如果是普通接收报文,conn协程在此阻塞5秒
        }    

        if ((rtrd->error_code()) != srs_success)  
            return srs_error_wrap(); // 如果接收协程错误则退出循环,结束协程
            
        if (rtrd->nb_msgs() <= nb_msgs)  
            return srs_error_wrap(); // 超时检测发现没有接收到新数据则退出循环,结束协程

        nb_msgs = rtrd->nb_msgs(); // 更新数据,此变量是int64,不用担心溢出翻转
        stat->on_video_frames();  // 通过单件类SrsStatistic,刷新每条流的接收视频帧计数
    }
}

本文福利, C++音视频学习资料包、技术视频,内容包括(音视频开发,面试题,FFmpeg webRTC rtmp hls rtsp ffplay srs↓↓↓↓↓↓见下面↓↓文章底部↓↓

推流端接收协程的创建和处理逻辑:
在创建SrsPublishRecvThread对象时,它的构造函数会同时创建一个SrsRecvThread协程对象,所以,真正的推流端接收协程是SrsRecvThread::do_cycle()

SrsPublishRecvThread::SrsPublishRecvThread()
    : trd(this, rtmp_sdk, tm, parent_cid)
{
}

srs_error_t SrsRecvThread::cycle() {
    rtmp->set_recv_timeout(SRS_UTIME_NO_TIMEOUT); // 设置为阻塞式读取
    do_cycle();  // 
    rtmp->set_recv_timeout(timeout); // 读取连接结束,恢复默认timeout
}

srs_error_t SrsRecvThread::do_cycle()
{
    rtmp->recv_message(&msg); // 此函数用于得到一个完整RTMP Message消息,即一个完整的音频帧或视频帧
                              // 到此我们大概知道,具体的RTMP协议都封装在SrsRtmpServer类中
                              // 对于初学者,可以先不关心SrsRtmpServer类的实现细节
    pumper->consume(msg);  // 对于推流端,这里的pumper对象类型为SrsPublishRecvThread
                           // 对于拉流端,这里的pumper对象类型为SrsQueueRecvThread
}

// 接收推流端数据并处理
srs_error_t SrsPublishRecvThread::consume(SrsCommonMessage* msg)
{
    _conn->handle_publish_message(_source, msg); // 最终,SrsRtmpConn接收推流报文

    if (++nn_msgs_for_yield_ >= 15) {
        nn_msgs_for_yield_ = 0;
        srs_thread_yield();   // 连续接收15帧数据后,当前协程主动让出CPU
    }
}

处理一个完整的RTMP报文

srs_error_t SrsRtmpConn::handle_publish_message()
{
    // 这里是接收AMF编码的RTMP控制命令,实际上好像意义不大,更多可能是防错处理
    if (msg->header.is_amf0_command() || msg->header.is_amf3_command()) 
    {
        rtmp->decode_message(msg, &pkt);
        if (dynamic_cast<SrsFMLEStartPacket*>(pkt)) {
            SrsFMLEStartPacket* unpublish = dynamic_cast<SrsFMLEStartPacket*>(pkt);
            rtmp->fmle_unpublish(); // for fmle, drop others except the fmle start packet.
        }
        return err;
    }  
 
    // 处理RTMP相关的video, audio, MetaData(元数据)报文,
    // 首先处理的是MetaData报文
    // 其次是视频第一帧AVC sequence header和音频第一帧AAC sequence header
    // 最后是普通的音视频数据帧
    process_publish_message(source, msg);   // video, audio, data message
}

按照RTMP协议,推拉流过程中:

  1. 首先,发送的总是是MetaData报文
  2. 其次,是视频第一帧AVC sequence header和音频第一帧AAC sequence header
  3. 最后,是普通的音视频数据帧
srs_error_t SrsRtmpConn::process_publish_message()
{
    if (info->edge) {  
        // 如果sever工作在edge模式,则调用此接口向源站转发报文,然后直接返回
        // 此时可以看到,edge模式下,SRS属于纯转发,所以不会在本地做HLS(ts、m3u8文件)处理
        // 同样,对于edge模式下的,推流处理逻辑主要在SrsPublishEdge和SrsEdgeForwarder类实现
        // 对于初学者,可暂时不关注这两个类,只要知道SRS对edge模式的设计规格是:
        // 推流到edge上时,edge会直接将流转发给源站;播放edge上的流时,edge会回源拉流。
        return  source->on_edge_proxy_publish(msg);  
    }   
    
    // 非edge模式,报文分类传入source对象
    if (msg->header.is_audio()) {  // 音频报文处理分支
        return source->on_audio(msg);  
    }     
    
    if (msg->header.is_video()) {  // 视频报文处理分支
        return source->on_video(msg);  
    }     
    
    if (msg->header.is_aggregate()) {  // 聚合消息处理分支
        return source->on_aggregate(msg);  
    }  
    
    // onMetaData音视频元数据处理分支
    if (msg->header.is_amf0_data() || msg->header.is_amf3_data()) {
        rtmp->decode_message(msg, &pkt);
        source->on_meta_data(msg, metadata); 
        return;
    }
}

因为,MetaData报文和sequence header在推拉流开始时只会发送一次,所以,SRS作为服务端必须将RTMP推流客户端的MetaData报文和sequence header报文缓存起来,用于满足随时增加的拉流客户端。

  1. MetaData报文格式如下:

2.AVC sequence header报文格式如下: (属于全局关键编码信息,所以也是关键帧)

+----------------------------------------------------------------------------+
|FrameType(1 byte) 高4位表示帧类型(1表示关键帧),低4位表示编码类型(7表示H264编码)    |
+----------------------------------------------------------------------------+
|0x00 0x00 0x00 0x00 (4 byte)                                                |
+----------------------------------------------------------------------------+
|configurationVersion (1 byte)    0x01                                       |
+----------------------------------------------------------------------------+
|AVCProfileIndication (1 byte)    SPS[1]                                     |
+----------------------------------------------------------------------------+
|profile_compatibility (1 byte)   SPS[2]                                     |
+----------------------------------------------------------------------------+
|AVCLevelIndication (1 byte)      SPS[3]                                     |
+----------------------------------------------------------------------------+
|lengthSizeMinusOne (1 byte)      0xff                                       |
+----------------------------------------------------------------------------+
|sps number (1 byte)              SPS的序号0xE1                               |
+----------------------------------------------------------------------------+
|sps data length (2 byte)         去掉分隔符00000001之后的实际长度               |
+----------------------------------------------------------------------------+
|sps data                                                                    |
+----------------------------------------------------------------------------+
|pps number (1 byte)              PPS的序号0x01                               |
+----------------------------------------------------------------------------+
|pps data length (2 byte)         去掉分隔符00000001之后的实际长度               |
+----------------------------------------------------------------------------+
|pps data                                                                    |
+----------------------------------------------------------------------------+

wireshark抓包报文格式:

 

3.RTMP对普通H264视频数据的封装

+----------------------------------------------------------------------------+
| FrameType[1 byte] 高4位表示是否是关键帧(1:关键帧),低4位表示编码类型(7表示H264编码) |
+----------------------------------------------------------------------------+
| 0x01 0x00 0x00 0x00 (4 byte)                                               |
+----------------------------------------------------------------------------+
| NALU size (4 byte)  去掉分隔符00000001之后的长度                              |
+----------------------------------------------------------------------------+
| NALU data                                                                  |
+----------------------------------------------------------------------------+

音视频报文的处理流程基本一致,其中有一个mix_queue用于解决时间戳乱序问题

srs_error_t SrsLiveSource::on_audio(SrsCommonMessage* shared_audio)
srs_error_t SrsLiveSource::on_video(SrsCommonMessage* shared_video) 
{
    last_packet_time = shared_video->header.timestamp; // 更新最新接收报文的时间
    
    // 检查视频报文的封装格式是否正确,错误报文直接丢弃,判断依据就是RTMP封装的第一个字节frame_type
    if (!SrsFlvVideo::acceptable(shared_video->payload, shared_video->size)) {
        return err;
    }
    
    SrsSharedPtrMessage msg;
    msg.create(shared_video);// 将shared_video中的视频数据转移到msg对象内
    
    // 如果不需要mix_correct算法,则直接交给on_video_imp处理
    if (!mix_correct) { return on_video_imp(&msg); }   
    
    // 否则将音视频报文放入算法队列,执行mix_correct
    mix_queue->push(msg.copy());                 
    SrsSharedPtrMessage* m = mix_queue->pop();   // 从算法队列取报文并处理
    if (m->is_audio()) { 
        err = on_audio_imp(m); 
    } else {   
        err = on_video_imp(m); 
    }
}

mix_queue内部其实就是一个以timestamp为key的multimap容器,这样放入的数据就会自然按照报文的时间戳排序。

无论是否经过mix_queue排序,最终处理音视频数据的都是SrsLiveSource::on_audio_imp()和SrsLiveSource::on_video_imp()。

srs_error_t SrsLiveSource::on_video_imp(SrsSharedPtrMessage* msg) 
{
    // AVC sequence header就是SPS+PPS的RTMP包,具体根据报文的第1、2字节进行判断:
    // 第一个字节是FrameType,其中:高4位表示是否是关键帧(1:关键帧,2、3、4、5表示其它帧类型),
    //                          低4位表示编码类型(7表示H264编码,12表示H265编码)
    // 第二个字节:0表示当前Msg是SPS+PPS数据,1表示当前Msg是H264视频帧
    // 这里就是根据上面的原则判断报文是否是AVC sequence header(SPS+PPS)
    bool is_sequence_header = SrsFlvVideo::sh(msg->payload, msg->size); 
    
    // 如果是AVC sequence header数据,需要和meta对象中保存的数据比较,是否为重复数据
    
    // 将最新的SPS+PPS数据保存到meta对象,
    if (is_sequence_header && (err = meta->update_vsh(msg)) != srs_success) {
        return srs_error_wrap(err, "meta update video");
    }
    
    // 服务器只有工作在源站模式才能走到这里,此函数内部执行源站的全部工作,内容多且独立,后面单独分析
    // 1) hls->on_video()  HLS处理
    // 2) dash->on_video() DASH处理
    // 3) dvr->on_video()  DVR处理
    // 4) hds->on_video()  HDS处理
    // 5) forwarder->on_video()  直接向指定站点转发视频数据
    if ((err = hub->on_video(msg, is_sequence_header)) != srs_success) {
        return srs_error_wrap(err, "hub consume video");
    }
    
    // 如果是类似RTMP推流-->WebRTC拉流场景,则有相应的bridger_->on_video()处理
    if (bridger_ && (err = bridger_->on_video(msg)) != srs_success) {
        return srs_error_wrap(err, "bridger consume video");
    }
 
    // 典型的RTMP直播场景,一个推流端可能同时对应多个拉流端,
    // 每个拉流端都需要创建一个属于自己的SrsLiveConsumer消费者对象
    // SRS接收到推流客户端的数据后,在这里将数据复制到每个拉流端的SrsLiveConsumer缓存队列中
    for (int i = 0; i < (int)consumers.size(); i++) {
        SrsLiveConsumer* consumer = consumers.at(i);  // 遍历拉流端队列并复制消息
        if ((err = consumer->enqueue(msg, atc, jitter_algorithm)) != srs_success) {
            return srs_error_wrap(err, "consume video");
        }
    }
    
    // AVC sequence header(SPS+PPS)数据不需要GOP缓存,在这里直接返回
    if (is_sequence_header) { return err; } 
    
    gop_cache->cache(msg);  // 普通视频帧放入GOP缓存
    
    // 关于ATC,大概描述如下
    // SRS默认ATC是关闭,即给客户端的RTMP流永远从0开始。
    // 开启ATC之后,RTMP流的时间戳就是ATC时间(即绝对时间),这样的目的大概是为了实现HLS的主备时间一致
    if (atc) {
        if (meta->vsh()) { meta->vsh()->timestamp = msg->timestamp; }
        if (meta->data()) { meta->data()->timestamp = msg->timestamp; }
    }
}

on_audio_imp()和on_video_imp()的处理逻辑比较一致:

判断并缓存AAC sequence header和AVC sequence header数据

SrsOriginHub::on_audio和SrsOriginHub::on_video执行音视频的源站处理逻辑(HLS/DVR/FORWARDER)

通过SrsRtcFromRtmpBridger::on_audio和SrsRtcFromRtmpBridger::on_video向RTC模块转发

遍历本地拉流端SrsLiveConsumer对象,通过SrsLiveConsumer::enqueue,音视频数据进入消费者队列

使用SrsGopCache::cache缓存一组完整的视频GOP

srs_error_t SrsLiveSource::on_audio_imp(SrsSharedPtrMessage* msg)
{
    // 判断报文是否是AAC sequence header数据
    bool is_aac_sequence_header = SrsFlvAudio::sh(msg->payload, msg->size);
    bool is_sequence_header = is_aac_sequence_header;

    // 如果是AAC sequence header数据,需要和meta对象中保存的数据比较,是否为重复数据
    // 并根据配置信息,决定是否需要丢弃重复的AAC sequence header
    
    // 服务器只有工作在源站模式才能走到这里,此函数内部执行源站的全部工作,内容多且独立,后面单独分析
    // 1) hls->on_audio()   HLS处理
    // 2) dash->on_audio()  DASH处理
    // 3)dvr->on_audio()   DVR处理
    // 4)hds->on_audio()   HDS处理
    // 5) forwarder->on_audio()   直接向指定站点转发视频数据
    hub->on_audio(msg);
    
    // 如果是类似RTMP推流-->WebRTC拉流场景,则有相应的bridger_->on_audio()处理
    if (bridger_ && (err = bridger_->on_audio(msg)) != srs_success) {
        return srs_error_wrap(err, "bridger consume audio");
    }
    
    // SRS接收到推流客户端的数据后,在这里将数据复制到每个拉流端的SrsLiveConsumer缓存队列中
    if (!drop_for_reduce) {
        for (int i = 0; i < (int)consumers.size(); i++) {
            SrsLiveConsumer* consumer = consumers.at(i);
            if ((err = consumer->enqueue(msg, atc, jitter_algorithm)) != srs_success) {
                return srs_error_wrap(err, "consume message");
            }
        }
    }
    
    // cache the sequence header of aac, or first packet of mp3
    if (is_aac_sequence_header || !meta->ash()) {
        if ((err = meta->update_ash(msg)) != srs_success) {
            return srs_error_wrap(err, "meta consume audio");
        }
    }
   
    // AVC sequence header(SPS+PPS)数据不需要GOP缓存,在这里直接返回
    if (is_sequence_header) { return err; } 
    
    gop_cache->cache(msg);  // 普通视频帧放入GOP缓存
    
    // 关于ATC,大概描述如下
    // SRS默认ATC是关闭,即给客户端的RTMP流永远从0开始。
    // 开启ATC之后,RTMP流的时间戳就是ATC时间(即绝对时间),这样的目的大概是为了实现HLS的主备时间一致
    if (atc) {
        if (meta->vsh()) { meta->vsh()->timestamp = msg->timestamp; }
        if (meta->data()) { meta->data()->timestamp = msg->timestamp; }
    }
}

最终,推流端数据通过SrsLiveConsumer::enqueue()函数进入拉流端消费者队列,此函数的处理逻辑如下:

1、使用SrsRtmpJitter::correct()函数,处理音视频数据的时间戳

2、调用SrsMessageQueue::enqueue()函数,将音视频数据保存到一个类似Vector的容器中

3、调用srs_cond_signal(mw_wait)函数,唤醒拉流协程读取数据

srs_error_t SrsLiveConsumer::enqueue(msg) 
{
    // ATC默认不开启时,音视频数据先进入SrsRtmpJitter对象根据算法检查甚至修改报文的时间戳
    //  full算法:保证报文的时间戳从0开始,且单调递增
    //  zero算法:只保证时间戳从0开始
    //  off算法:不做jitter处理
    if (!atc) {
        if ((err = jitter->correct(msg, ag)) != srs_success) {
            return srs_error_wrap(err, "consume message");
        }
    }
    
    // 将最新接收到的报文入队列,此函数内部会判断如果缓存的报文过多,则丢弃一部分旧报文
    queue->enqueue(msg, NULL);

    if (mw_waiting) { // 为了提高读写效率,此标志表示采用批量写方式
        
        srs_utime_t duration = queue->duration(); // 计算队列总缓存报文的总时间
        bool match_min_msgs = queue->size() > mw_min_msgs; // 计算队列总缓存报文的总数量
        
        // For ATC, maybe the SH timestamp bigger than A/V packet,
        // when encoder republish or overflow.
        // @see https://github.com/ossrs/srs/pull/749
        if (atc && duration < 0) {
            srs_cond_signal(mw_wait);
            mw_waiting = false;
            return err;
        }
        
        // 如果队列缓存报文的总时间超过mw_duration门限且缓存报文的总数量超过mw_min_msgs
        // 则调用srs_cond_signal(mw_wait)唤醒拉流(play)协程从队列中取数据
        if (match_min_msgs && duration > mw_duration) {
            srs_cond_signal(mw_wait);
            mw_waiting = false;
            return err;
        }
    }
}

因为服务器的资源有限,不能无限缓存音视频数据,所以SrsMessageQueue::enqueue()函数的处理逻辑如下:

1、音视频报文缓存在一个类似vector的容器中

2、记录缓存队列中报文的start_time和end_time,用于计算已缓存的视频流时长

3、如果缓存的报文超过max_queue_size限制,调用SrsMessageQueue::shrink()丢弃缓存的报文

srs_error_t SrsMessageQueue::enqueue() 
{
    msgs.push_back(msg);   // Message数据包最终进入vector容器
    
    // 设置队列缓存报文的av_start_time 和 av_end_time 
    if (msg->is_av()) {
        if (av_start_time == -1) {
            av_start_time = srs_utime_t(msg->timestamp * SRS_UTIME_MILLISECONDS);
        }
        av_end_time = srs_utime_t(msg->timestamp * SRS_UTIME_MILLISECONDS);
    }

    // 默认的最大缓存时间(max_queue_size)一般是30秒,如果被修改为<=0,则表示不做判断,一直缓存???
    if (max_queue_size <= 0) { return err; }
    
    // 如果队列中缓存报文超过max_queue_size,则通过shrink()函数丢弃旧报文
    while (av_end_time - av_start_time > max_queue_size) {
        shrink();
    }
    
    return err;
}

SrsMessageQueue::shrink()函数的目的是将缓存的音视频报文之间丢弃,但是此函数内部有一个遍历报文的目的,是为了确定缓存队列中是否有AAC sequence header和AVC sequence header。如果有,则不能丢弃,因为这个玩意推流端只会发送一次,如果丢了,拉流端将无法播放。

void SrsMessageQueue::shrink()
{
    SrsSharedPtrMessage* video_sh = NULL;
    SrsSharedPtrMessage* audio_sh = NULL;
    int msgs_size = (int)msgs.size();
    
    // remove all msg
    // igone the sequence header
    for (int i = 0; i < (int)msgs.size(); i++) {
        SrsSharedPtrMessage* msg = msgs.at(i);
        
        if (msg->is_video() && SrsFlvVideo::sh(msg->payload, msg->size)) {
            srs_freep(video_sh);
            video_sh = msg;
            continue;
        }
        else if (msg->is_audio() && SrsFlvAudio::sh(msg->payload, msg->size)) {
            srs_freep(audio_sh);
            audio_sh = msg;
            continue;
        }
        
        srs_freep(msg);
    }
    msgs.clear();
    
    // update av_start_time
    av_start_time = av_end_time;
    //push_back secquence header and update timestamp
    if (video_sh) {
        video_sh->timestamp = srsu2ms(av_end_time);
        msgs.push_back(video_sh);
    }
    if (audio_sh) {
        audio_sh->timestamp = srsu2ms(av_end_time);
        msgs.push_back(audio_sh);
    }
    
    if (!_ignore_shrink) {
        srs_trace("shrinking, size=%d, removed=%d, max=%dms", (int)msgs.size(), msgs_size - (int)msgs.size(), srsu2msi(max_queue_size));
    }
}

综上,推流端处理逻辑大致处理完成,下一章将继续分析拉流端处理逻辑。

总结:

通过分析,我们了解了SRS4.0 RTMP服务模块推流端处理的整体逻辑:

1)推流端一共有两个主要的协程,其中SrsRtmpConn::do_publishing()协程主要工作是统计接收的数据,并检测如果没有接收到新数据,则断开推流端连接。SrsRecvThread::cycle()协程真正接收客户端的推流数据。

2)每个推流客户端对应一个SrsLiveSource对象,每个拉流客户端对应一个SrsLiveConsumer对象。SrsRecvThread::cycle()协程将接收到的RTMP数据包通过SrsLiveSource对象最终复制到每个SrsLiveConsumer对象,最终实现从推流端到拉流端的报文转发。

3)如果SRS服务器工作在edge模式,相关的边缘处理逻辑都封装在SrsPublishEdge类中。

如果服务器工作在orgin模式,相关的处理逻辑(HLS / DVR / Forward)都封装在SrsOriginHub类中。

如果要实现SRS内部的RTMP与WebRTC数据互通,则需要进一步分析ISrsLiveSourceBridger类。

整个过程,可以参考下面的数据流程图。

原文链接:SRS4.0源代码分析之RTMP推流处理 - 资料 - 我爱音视频网 - 构建全国最权威的音视频技术交流分享论坛

本文福利, C++音视频学习资料包、技术视频,内容包括(音视频开发,面试题,FFmpeg webRTC rtmp hls rtsp ffplay srs↓↓↓↓↓↓见下面↓↓文章底部↓↓ 

猜你喜欢

转载自blog.csdn.net/m0_60259116/article/details/125896840