FFmpeg 的使用与Docker安装流媒体服务器

本文阐述的均为命令行的使用方式。

一、FFmpeg 介绍

本文读者会比较小众~ 看到此文的朋友,大概率是需要用到FFmpeg啦,简单说一下下。

就算是从来没接触过的朋友,其实也已经在生活的各个方面都接触过FFmpeg处理完东西(音视频)。

一句话来总结:FFmpeg 就是一款封装好的关于音视频方面的开源处理工具。

它功能强大,用途广泛,大量用于视频网站和商业软件(比如 Youtube 和 iTunes),也是许多音频和视频格式的标准编码/解码实现。

如果有接触过 gstreamer (另外一个音视频处理框架),它的也有使用到 FFmpeg 的编码器。

本文福利, 免费领取C++音视频学习资料包、技术视频/代码,内容包括(音视频开发,面试题,FFmpeg ,webRTC ,rtmp ,hls ,rtsp ,ffplay ,编解码,推拉流,srs)↓↓↓↓↓↓见下面↓↓文章底部点击免费领取↓↓

二、FFmpeg 安装

sudo apt-get install ffmpeg

版本查看

ffmpeg --help

安装就一会的事情,主要还是要看怎么使用。

三、FFmpeg 使用

FFmpeg 的命令行参数分布大致如下:

ffmpeg \
[全局参数] \
[输入文件参数] \
-i [输入文件] \
[输出文件参数] \
[输出文件]

下面是一个例子。

ffmpeg \
-y \ # 全局参数
-c:a libfdk_aac -c:v libx264 \ # 输入文件参数
-i input.mp4 \ # 输入文件
-c:v libvpx-vp9 -c:a libvorbis \ # 输出文件参数
output.avi # 输出文件

上面的命令将 mp4 文件转成 webm 文件,这两个都是容器格式。输入的 mp4 文件的音频编码格式是 aac,视频编码格式是 H.264;输出的 webm 文件的视频编码格式是 VP9,音频格式是 Vorbis。

如果不指明编码格式,FFmpeg 会自己判断输入文件的编码。因此,上面的命令可以简单写成下面的样子。

ffmpeg -i input.avi output.mp4

四、FFmpeg 常见案例

本章节只是简单的介绍了如何使用,并且解释啦常用的参数,如果需要更详细全面的参数解释,可以查看FFmpeg官方文档。

封包格式(format、视频格式)、编码、解码、帧率、I帧、B帧等等一些偏向于专业的名词,大伙如果有需求可以去仔细了解了解,我这边暂时只是简单使用一下。

4.1、转换编码格式

转换编码格式(transcoding)指的是, 将视频文件从一种编码转成另一种编码。比如转成 H.264 编码,一般使用编码器libx264,所以只需指定输出文件的视频编码器即可。

ffmpeg -i 1.mp4 -c:v libx264 output_h264.mp4

查看支持的编码器(也就是 -vcodec 简称为 -c:v 后面可以接的参数):

ffmpeg -codecs

支持很多很多,不一一列举出来啦

4.2、转换文件格式:

ffmpeg -y -i 1.mp4 -c:v libx264 -preset ultrafast -b:v 6000k output_avi.avi 其中,

:v 代表视频,:a 代表音频;

  • -i 1.mp4 表示视频输入来源,这表示当前目录下的 1.mp4 ,也可以接收来自外部视频源或者本机摄像头作为视频来源
  • -c:v libx264 表示使用264编码器,
  • -preset,H.264 的转码预设参数和调优参数。指定输出的视频质量,会影响文件的生成速度,有以下几个可用的值 ultrafast, superfast, veryfast, faster, fast, medium, slow, slower, veryslow。
  • -b 6000k 指定码率(比特率),码率低时速度快,但失真严重,码率高时反之;
  • -y 表示如果已存在 output_avi.avi则将其覆盖;

4.3、对已有视频进行抓图:

ffmpeg -i output_avi.avi -y -f image2 -ss 8 -t 0.001 -s 1980x1280 'test.jpg'

4.4 调整码率

调整码率(transrating)指的是,改变编码的比特率,一般用来将视频文件的体积变小。下面的例子指定码率最小为964K,最大为3856K,缓冲区大小为 2000K。

ffmpeg -i 1.mp4 -minrate 964K -maxrate 3856K -bufsize 2000K output_rate.mp4

4.5 改变分辨率(transsizing)

下面是改变视频分辨率(transsizing)的例子,从 1080p 转为 480p 。

ffmpeg -y -i 1.mp4 -vf scale=480:-1 output_scale.mp4

4.6 提取音频

有时,需要从视频里面提取音频(demuxing),可以像下面这样写。

ffmpeg -y -i 1.mp4 -vn -c:a copy output_avideo.aac

上面例子中,-vn表示去掉视频,-c:a copy表示不改变音频编码,直接拷贝。

4.7、本地摄像头推流

ffmpeg -f video4linux2 -r 30 -i /dev/video0 -vcodec h264 -f flv rtmp://192.168.79.133:1935/live/stream0

稍微解释一下上面的命令:

  • -f video4linux2 -r 30 -i /dev/video0 表示从 /dev/video0 中以 30 fps 的帧率采集视频,视频格式 为 video4linux2
  • c:v libx264 输出视频的编码格式是 H.264, RTMP 通常采用H.264 编码
  • f flv 指的视频的封包格式, RTMP 一般采用 flv 封包格式。
  • an 忽略音频流
  • preset superfast -tune zerolatency H.264 的转码预设参数和调优参数。会影响视频质量和压缩率

注意:在虚拟机中使用摄像头需注意、将USB的兼容性设置成USB3.0 ,否则出现推流一直卡在那

五、Docker 安装流媒体服务器,推流和拉流实现

这里我当时就是随便在github上找了一个可以docker方式部署的流媒体服务器~

直接输入下面这条命令就可以构建成功啦。

sudo docker run -id --restart=always -p 1935:1935 -p 8080:80 -p 8443:443 -p 554:554 -p 10000:10000 -p 10000:10000/udp -p 8000:8000/udp -p 9000:9000/udp zlmediakit/zlmediakit:master

FFmpeg 推流和拉流测试

推流和拉流,要是接触过视频服务可能就比较了解~

粗糙的流程就大致如上图啦,推流就是将收集到的视频流推送到流媒体服务器上去,拉流就是从流媒体服务器上把视频拉取下来,进行播放。

至于如何收集视频,如何进行视频处理,更为详细的就没有介绍啦,FFmpeg 是涵盖了全流程的, 可以去了解了解。

里面牵扯到的 RTSP、RTMP、HTTP-FLV协议,都是一些视频相关的协议,可以去了解了解,我这里只测试了 RTSP和RTMP协议。

rtsp 推流和拉流

ffmpeg -re -i 1.mp4 -vcodec h264 -acodec aac -f rtsp -rtsp_transport tcp rtsp://192.168.79.133/live/room

(rtsp 端口我这里使用的是默认的 554,故而省略没写啦

拉流进行播放可以使用专门的播放器,也可以使用ffmpeg的组件ffplay来进行视频的播放

ffplay 拉流进行播放

ffplay rtsp://192.168.79.133:554/live/room

常用的播放器 vlc media player 也可以播放 rtsp 和 rtmp 协议的视频流。

播放器截图

然后正常播放就是ok啦

rtmp 推流

ffmpeg -re -i 1.mp4 -vcodec h264 -acodec aac -f flv rtmp://192.168.79.133/live/room

ffplay rtmp://192.168.79.133:1935/live/room

rtmp协议的端口号是 1935 ~这些端口号,都是可以修改的,是否支持取决于你部署的流媒体服务器是什么样的。

 播放器截图

(另外,这个流媒体服务器内部对视频做了处理,可以实现多种输出,你RTMP推上去的,也可以用RTSP协议拉流下来的)

本文福利, 免费领取C++音视频学习资料包、技术视频/代码,内容包括(音视频开发,面试题,FFmpeg ,webRTC ,rtmp ,hls ,rtsp ,ffplay ,编解码,推拉流,srs)↓↓↓↓↓↓见下面↓↓文章底部点击免费领取↓↓

猜你喜欢

转载自blog.csdn.net/m0_60259116/article/details/131463351
今日推荐