ライブ原則

どちらか生きるには、末端の間の相互作用から不可分です。

原理:

(1)カメラとマイクオーディオとビデオ入力デバイス、またはコンピュータリアルタイムのオーディオおよびビデオストリームのモバイル端末によって記録された;
(2)次いで、ストリーミングオーディオおよびビデオ符号化;
(3)最後に、良好なコード・パケットをコンパイルは、リアルタイムで放送プロトコルを介して送信されますサーバへ;
(4)サーバにリアルタイムに配らストリーミング・プロトコル・データ・パケットを介して、
(5)リアルタイムプロトコル要求パケット、及びデコード端末放送を通して見るとプレイします。

ライブアーキテクチャ

主に3つの部分から構成されます。

(1)オーディオおよびビデオデータとプロセスプラグフローをキャプチャする
主このセクションで動作している:(例えば、美容など)、オーディオおよびビデオデータの取得、ビデオ処理、オーディオおよびビデオ符号化、及び最終的にストリーミングプロトコルを介してサーバにデータパケットを送信します完全なプラグフロープロセス。
当該分野に共通のこの部分:美しさはビデオx264の、librtmpの使用プラグフローフレームを用いて符号化、GPUImage、FAACを使用してオーディオ符号化を使用して

ダンプ処理及び分布(2)のオーディオ及びビデオデータサーバの
サーバ主作業:コンテンツ・データの転送、保存、流通(すなわち、いわゆるCDN)。サーバはまた、アンカーピクチャを表示するには、キャプチャオーディオとビデオをスクリーニングすることができる、あなたはまた、オーディオやビデオ、リアルタイムトランスコーディングのために透かしを追加することができます。もちろん、それは映像を記録するために働くことができます。技術に共通のサーバーは、以下のとおりです。SRSとnginxの。

プロセスの流れを引いて再生する(3)オーディオおよびビデオプレーヤー
最初のデマルチプレクサストリームを、その後、オーディオとビデオの再生をデコードします。もちろん、通常のライブ特殊効果やインタラクティブなライブチャット機能を持っているの贈り物があります。技術に共通するのは、次のとおりです。ライブラリをデコードFFmpegは、VLC、ijkplayer、MediaCodec / MediaPlayerの 。

読んでくれてありがとう!次よりエキサイティング!

おすすめ

転載: blog.csdn.net/weixin_40763897/article/details/95243413