利用ffmpeg将H264流 解码为RGB

 
  
利用H264解码分为几个步骤:

 

注意一点在添加头文件的时候要添加extern "C",不然会出现错误

[cpp]  view plain copy 在CODE上查看代码片 派生到我的代码片
  1. extern "C"  
  2. {  
  3. #include <avcodec.h>  
  4. #include <avformat.h>  
  5. #include <avutil.h>  
  6. #include <swscale.h>  
  7. };  


 

 

这里申明了几个全局变量

[cpp]  view plain copy 在CODE上查看代码片 派生到我的代码片
  1. AVCodec         *pCodec = NULL;  
  2. AVCodecContext  *pCodecCtx = NULL;  
  3. SwsContext      *img_convert_ctx = NULL;  
  4. AVFrame         *pFrame = NULL;  
  5. AVFrame         *pFrameRGB = NULL;  


 

1. 初始化

[cpp]  view plain copy 在CODE上查看代码片 派生到我的代码片
  1. int H264_Init(void)  
  2. {  
  3.     /* must be called before using avcodec lib*/  
  4.     avcodec_init();  
  5.     /* register all the codecs */  
  6.     avcodec_register_all();  
  7.   
  8.     /* find the h264 video decoder */  
  9.     pCodec = avcodec_find_decoder(CODEC_ID_H264);  
  10.     if (!pCodec) {  
  11.         fprintf(stderr, "codec not found\n");  
  12.     }  
  13.     pCodecCtx = avcodec_alloc_context();  
  14.   
  15.     /* open the coderc */  
  16.     if (avcodec_open(pCodecCtx, pCodec) < 0) {  
  17.         fprintf(stderr, "could not open codec\n");  
  18.     }  
  19.     // Allocate video frame  
  20.     pFrame = avcodec_alloc_frame();  
  21.     if(pFrame == NULL)  
  22.         return -1;  
  23.     // Allocate an AVFrame structure  
  24.     pFrameRGB=avcodec_alloc_frame();  
  25.     if(pFrameRGB == NULL)  
  26.         return -1;  
  27.   
  28.   
  29.       
  30.     return 0;  
  31.   
  32. }  

在最早使用的时候没有使用全局变量,初始化中也就只有init和regisger这两个函数,而这样做的下场是,非关键帧全部无法解码,只有关键帧才有办法解码。

2. 解码

解码的时候avcodec_decode_video函数是进行解码操作,在外部定义outputbuf的大小时,pixes*3,outsize是返回的outputbuf的size,值也是pixes*3。

 

在解码的时候这几句话的意义是将YUV420P的数据倒置。在原先使用中,发现解出来的图像居然是中心旋转图,后面在网上找了些办法,觉得这个比较实用。解码实时是很重要的,图像转化完之后也可以讲RGB图再次转化,那样也能成为一个正的图,但是那样效率就明显低了。

[cpp]  view plain copy 在CODE上查看代码片 派生到我的代码片
  1. pFrame->data[0] += pFrame->linesize[0] * (pCodecCtx->height-1);  
  2. pFrame->linesize[0] *= -1;  
  3. pFrame->data[1] += pFrame->linesize[1] * (pCodecCtx->height/2 - 1);;  
  4. pFrame->linesize[1] *= -1;  
  5. pFrame->data[2] += pFrame->linesize[2] * (pCodecCtx->height/2 - 1);;  
  6. pFrame->linesize[2] *= -1;  


 

 

[cpp]  view plain copy 在CODE上查看代码片 派生到我的代码片
  1. int H264_2_RGB(unsigned char *inputbuf, int frame_size, unsigned char *outputbuf, unsigned int*outsize)  
  2. {  
  3.       
  4.     int             decode_size;  
  5.     int             numBytes;  
  6.     int             av_result;  
  7.     uint8_t         *buffer = NULL;  
  8.   
  9.     printf("Video decoding\n");  
  10.   
  11.     av_result = avcodec_decode_video(pCodecCtx, pFrame, &decode_size, inputbuf, frame_size);  
  12.     if (av_result < 0)  
  13.     {  
  14.         fprintf(stderr, "decode failed: inputbuf = 0x%x , input_framesize = %d\n", inputbuf, frame_size);  
  15.         return -1;  
  16.     }  
  17.   
  18.     // Determine required buffer size and allocate buffer  
  19.     numBytes=avpicture_get_size(PIX_FMT_BGR24, pCodecCtx->width,  
  20.         pCodecCtx->height);  
  21.     buffer = (uint8_t*)malloc(numBytes * sizeof(uint8_t));  
  22.     // Assign appropriate parts of buffer to image planes in pFrameRGB  
  23.     avpicture_fill((AVPicture *)pFrameRGB, buffer, PIX_FMT_BGR24,  
  24.         pCodecCtx->width, pCodecCtx->height);  
  25.   
  26.     img_convert_ctx = sws_getCachedContext(img_convert_ctx,pCodecCtx->width,pCodecCtx->height,  
  27.         //PIX_FMT_YUV420P,pCodecCtx->width,pCodecCtx->height,pCodecCtx->pix_fmt,  
  28.         pCodecCtx->pix_fmt,pCodecCtx->width,pCodecCtx->height,PIX_FMT_RGB24 ,  
  29.         SWS_X ,NULL,NULL,NULL) ;  
  30.     if (img_convert_ctx == NULL)   
  31.     {  
  32.   
  33.         printf("can't init convert context!\n") ;  
  34.         return -1;  
  35.     }  
  36.     pFrame->data[0] += pFrame->linesize[0] * (pCodecCtx->height-1);  
  37.     pFrame->linesize[0] *= -1;  
  38.     pFrame->data[1] += pFrame->linesize[1] * (pCodecCtx->height/2 - 1);;  
  39.     pFrame->linesize[1] *= -1;  
  40.     pFrame->data[2] += pFrame->linesize[2] * (pCodecCtx->height/2 - 1);;  
  41.     pFrame->linesize[2] *= -1;  
  42.     sws_scale(img_convert_ctx, pFrame->data, pFrame->linesize,  
  43.         0, 0 - pCodecCtx->width, pFrameRGB->data, pFrameRGB->linesize);  
  44.       
  45.     if (decode_size)  
  46.     {  
  47.         *outsize = pCodecCtx->width * pCodecCtx->height * 3;  
  48.         memcpy(outputbuf, pFrameRGB->data[0], *outsize);  
  49.     }     
  50.   
  51.   
  52.     free(buffer);  
  53.     return 0;  
  54. }  

 
  
//解码yuv 修改 PIX_FMT_YUV420P	
memcpy(outputbuf, pFrameRGB->data[2], 720*576/4);
			memcpy(outputbuf, pFrameRGB->data[1], 720*576/4);
			memcpy(outputbuf, pFrameRGB->data[0], 720*576);



3. 释放资源

资源的回收。

[cpp]  view plain copy 在CODE上查看代码片 派生到我的代码片
  1. void H264_Release(void)  
  2. {  
  3.     avcodec_close(pCodecCtx);  
  4.     av_free(pCodecCtx);  
  5.     av_free(pFrame);  
  6.     av_free(pFrameRGB);  
  7. }  
版权声明:本文内容由互联网用户自发贡献,版权归作者所有,本社区不拥有所有权,也不承担相关法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件至: [email protected] 进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容。

猜你喜欢

转载自blog.csdn.net/maigao1/article/details/79229303