オーディオとビデオの開発 II: オーディオとビデオの知識の概要

序章

オーディオおよびビデオ技術には広範囲が含まれます。音声信号処理、デジタル画像処理、情報理論、カプセル化形式、コーデック、ストリーミングメディアプロトコル、ネットワーク伝送、レンダリング、アルゴリズムなどを含みます。実生活では、ビデオ会議、ライブブロードキャスト、ショートビデオ、プレーヤー、ボイスチャットなど、オーディオとビデオもますます重要な役割を果たします。次に、オーディオとビデオの原理、オーディオとビデオの理論的基礎、オーディオとビデオの学習ルート、メディア プロトコル、オーディオとビデオの開発方向の簡単な理解など、いくつかの側面から説明します。

シンプルな理解、オーディオとビデオの原理

多くの人は若い頃に、ノートの数ページに続けて前進と後退する動物を描き、素早くページをめくると、図 0 のような効果が得られるというちょっとしたゲームをしたことがあると思います。このプロセスには、(ビデオ)アニメーションの原理が含まれていますオーディオやビデオの原理もこれに基づいています。たとえば、ページをめくるときに音声を追加すると、「シューッ…」と馬の鳴き声を真似ることができます。

pic-0

図0

**オーディオとビデオの単純な原理は、一連の画像を再生し、その後、対応する一連のオーディオ サンプルを同期して再生することです。** 図 0 ~ 3 で明らかなように、3 つの重要な要素があります。

  • 1.YUV画像H264やHEACなどでエンコードされたバイナリデータから、デコードされたシーケンスピクチャはYUVピクチャと呼ばれ、一般的なjpgやpngと本質的には同じです。グラフィックス カードの主な仕事は、これらのグラフィックス データを処理することです。

  • 2. PCMオーディオmp3やaacなどでエンコードされたバイナリデータをデコードした音声サンプリング点の並びをPCM音声データと呼び、PCM音声波形の一つ一つが音の単位であることがわかります。

  • 3.オーディオとビデオの同期シーケンス画像フレームをコンピュータ層に継続的にレンダリングし、同時に同期パラメータ DTS および PTS に従ってオーディオ フレームを同期して再生する、これがビデオ再生プロセスです。

図1

図2

画像

画像3

オーディオとビデオの理論的基礎

オーディオ

オーディオ(Audio)とは、人の耳に聞こえる音のことで、音声や音楽のほか、環境音、効果音、自然音などを含みます。

音声紹介

音は物理現象です。物体が振動すると、音波が空気を通って人の鼓膜に伝わり、脳で反射されて音として認識されます。

音は周波数と振幅によって特徴付けられ、周波数は時間軸に対応し、振幅はレベル軸に対応します。

デジタルオーディオはなぜ存在するのでしょうか?

複雑な音波は、異なる振幅と周波数を持つ多くの正弦波で構成されていることが物理学から知られています。

音を表すアナログ情報は連続量であり、コンピュータで直接処理することはできず、デジタル化する必要があります。デジタル処理後、デジタル音声情報は、テキストやグラフィック情報と同様に、保存、取得、編集、処理できます。

デジタルオーディオとは何ですか?

サウンドは時間の経過とともに発達する波形として表現できることがわかっています。

画像

しかし、そのような曲線を直接記述してコンピュータに保存したい場合、それを記述する方法はありません。
曲線が下降し、上昇し、再び下降し、再び上昇するというこの方法でしか説明できない場合、これは明らかに非常に不合理です。
人々は次のような方法を考えました。

小さな時間間隔ごとに、定規を使用してこの点がどこにあるかを測定します。

間隔が確実である限り、この曲線は次のように説明できます: {9,11,12,13,14,14,15,15,15,14,14,13,12,10,9,7… }

この説明は今の方法よりも正確ですか?この時間間隔を小さくし、使用する定規がより正確であれば、この曲線を記述するために使用される測定数値もより正確にすることができます。

このレベル信号をバイナリデータに変換して保存し、再生時にはアナログレベル信号に変換してスピーカーに送信して放送するだけです。

一般に、デジタル オーディオとは、デジタル エンコーディングの使用、つまり、アナログ オーディオに関連するオーディオ情報を記録するために 0 と 1 を使用することを指します。

「アナログ信号」から「デジタル」へのプロセス:

オーディオは本来アナログ信号であり、コンピュータで認識するにはアナログ信号からデジタル信号に変換する必要があります。

アナログ信号をデジタル化に変換するプロセスには、次の 3 つの手順が必要です。

1. サンプリング

いわゆるサンプリング、サンプリングとも呼ばれます。サンプリングとは、ある点の周波数値を抽出することですが、当然のことながら、1秒間に抽出できる点の数が多ければ多いほど、より豊富な周波数情報を得ることができます。

サンプリングの基本定理: 波形を復元するには、1 つの振動に 2 つのサンプリング ポイントが必要です。人間の耳が知覚できる最高周波数は 20kHz です。したがって、人間の耳の聴覚要件を満たすには、少なくとも 40k が必要です。 1 秒あたりのサンプリング時間が必要です。

2. 定量化

デジタルオーディオ技術では、0.5Vの電圧は20、2Vの電圧は80というように、音の強さを表すアナログ電圧を数字で表します。特定のレベル範囲内であっても、1.2V、1.21V、1.215V... など、無限に多くのアナログ電圧振幅が存在する可能性があります。数値を使用して可聴周波数範囲を表す場合、有限の数値で表すことができるのは無限の電圧範囲のみです。つまり、ある振幅範囲内の電圧を数値で表現することを量子化といいます。

3. コーディング

コンピュータの基本的な数値体系は 2 進数であるため、音声データをコンピュータのデータ形式に書き込む必要があります。これをエンコードと呼びます。

オーディオストレージ

計算式は、(サンプリング周波数×サンプリング数×チャネル番号)/8×時間(秒)となります。サンプリング レートが 44.1k、チャネル数が 2、サンプリング ビット数が 16 であると仮定します。次に、1 秒あたりに占有されるストレージ領域のバイト数 = 44100 * 2 * 16 / 8 = 176.4kb、1 分は 10.09Mb となります。

オーディオエンコーディング

オーディオ エンコードの機能:オーディオ サンプル データ ( PCMなど) をオーディオ ビット ストリームに圧縮し、オーディオ データの量を削減します。

オーディオ圧縮、主に圧縮されるもの:

オーディオ圧縮技術とは、信号が聴覚的な歪みを引き起こさないことを前提として、オーディオデータ信号を可能な限り圧縮することです。

圧縮の主な方法は、収集された音声から冗長な情報を削除することです。いわゆる冗長情報には、人間の耳の可聴範囲外の音声信号やマスキングされた音声信号が含まれる。

信号マスキングは、周波数領域マスキング時間領域マスキングに分類できます


周波数領域マスキング効果とは、特定の周波数範囲内で周波数が非常に似ている場合、より大きな音が小さな音をマスクすることです。図中のマスキング音源の黒線は点線で示したマスキング音を覆い、周波数は近いもののマスキング音源よりも小さい音となっています。とても影が濃い。

時間領域のシャドウイング効果は、シャドウイング時間の範囲を超えてシャドウイングされます。

強い音を聞いた後、聴覚系は一定期間弱い音を一時的に遮断する場合があり、その結果、これらの音は聴覚系で処理および識別できなくなります。

一般的に使用されるオーディオ エンコード方式は次のとおりです。

オーディオデコード

オーディオ デコードは、圧縮およびエンコードされたデジタル オーディオ ファイルを元のオーディオ信号 PCM にデコードするプロセスです。デコード処理はエンコード処理の逆の処理であり、音声ファイルごとに使用するエンコード形式が異なるため、デコードには対応するデコーダも必要となります。

ビデオ

連続的な画像の変化が 1 秒あたり 24 フレーム (フレーム) を超えると、視覚の持続原理に従って、人間の目は単一の静止画像を区別できなくなり、滑らかで連続した視覚効果のように見えます。ビデオ。


ビデオの基本単位は実際には画像です

カラーモデル

光と色

光は、肉眼で見ることができる(受信できる)電磁波の可視スペクトルです。

人間の目で見ることができる可視光は、電磁スペクトル全体の一部にすぎません。電磁波の可視スペクトル範囲は約390~760nm(1nm=10-9m=0.000000001m)です。

色は視覚系による可視光の認識の結果であり、研究によると、人間の網膜には、赤、緑、青の色に敏感な 3 種類の錐体細胞があることが示されています。赤、緑、青の錐体細胞は、異なる周波数の光を異なる程度に知覚し、また異なるレベルの明るさを認識します。

自然界のあらゆる色はR、G、Bの3つの色値の和で決まり、これら3色を基本色としてRGB色空間が形成されます。
色 = R (赤の割合) + G (緑の割合) + B (青の割合)。そのうちの 1 つが他の 2 色によって生成されない限り、異なる 3 原色を選択して異なる色空間を構築できます。 。

YUV (YCbCr) カラーコーディング

関連する実験によると、人間の目は明るさには敏感ですが、彩度には敏感ではないことがわかっています。したがって、輝度情報と色差情報を分離することができ、人間の目を「だます」手段によりスペースを節約することができ、画像処理の分野に適しており、圧縮効率が向上する。

上の図から、色を除去した画像の識別は容易ですが、色だけを除去した画像の識別は困難であることがわかります。

したがって、YUVです。YUV は色を表現するもう 1 つの方法です。YUV は YCbCr とも呼ばれます。YUVカラー エンコードでは、輝度 Y彩度 UVを使用してピクセルの色を指定します。「Y」は明るさ ( LuminanceまたはLuma )、つまりグレースケール値を表します。「U」「V」は彩度 ( ChrominanceまたはChroma ) を表し、画像の色相と彩度を記述するために使用されます。

YUV は、明るさとクロミナンスを分離する色空間表現方法です。したがって、RGB と比較して、YUV は輝度情報に正確に応答すると同時に、人間の知覚の色度に依存しない特性を除去するため、ビデオの送信や保存に適しており、RGB と比較して高い圧縮性能を持っています。 。

YUVサンプリング形式

RGBのサンプリング形式は各画素にR、G、Bの3成分があり、各成分が8ビットまたは16ビットを占めるため、各画素は24ビットまたは48ビットを占める。帯域幅を節約するために、ほとんどの YUV 形式は平均してピクセルあたり 24 ビット未満を使用します。

主要的采样格式有YUV4:2:0(使用最多)、YUV4:2:2和YUV4:4:4。4:2:0表示每4个像素有4个亮度分量,2个色度分量 (YYYYCbCr)。4:2:2表示每4个像素有4个亮度分量,4个色度分量(YYYYCbCrCbCr)、4:4:4表示全像素点阵(YYYYCbCrCbCrCbCrCbCr)。

4:4:4 はフルサンプリングを意味します。RGB同じサイズ

4:2:2 は、2:1 の水平サンプリングと垂直フル サンプリングを意味します。RGBより3 分の 1 小さい。

4:2:0 は水平2:1サンプリング、垂直2:1サンプリングを意味します。Y2 行が保存されるたびに、半分の行Uと半分の行Vが保存されることがわかりますRGBより半分小さい

保管所

ビデオのビットレート * 時間。

ビデオ ビット レートの計算式は、(フレーム レート) * (画像解像度) * (サンプリング精度) * 1 秒です。

この場合、 RGB24形式の1時間の映画のデータ量は次のようになります。( PS : ここでのフレーム レートは25Hzで、RGB24 画像は各ピクセルを表すのに 24 ビットを使用し、解像度は 1920*1080 です)。3600 * 25 * 1920 * 1080 * 24 / (8 * 1024 * 1024 * 1024) = 521.421 GByte

ビデオエンコーディング

**収集された元の音声およびビデオ信号の量は非常に多く、目には見えず、耳には聞こえない同じコンテンツが多数あります** たとえば、ビデオが圧縮されていない場合、エンコードすると、通常、そのボリュームは非常に大きくなり、ムービーには数百ギガバイトのスペースが必要になる場合があります。

専門的に言えば、ビデオ エンコーディングはファイル内のビデオで使用される圧縮アルゴリズムです。ビデオ エンコーディングの主な機能は、ビデオ ピクセル データ (RGB、YUV など) をビデオ ストリームに圧縮して、ビデオ データの量を削減することです。

ビデオ圧縮、主に圧縮されるもの:

空間的冗長性: 画像の隣接するピクセル間に強い相関がある
時間的冗長性: ビデオ シーケンス内の隣接する画像のコンテンツが類似している
符号化冗長性: 異なるピクセル値の発生確率が異なる
視覚的冗長性: 人間の視覚システム一部の詳細は鈍感である
知識の冗長性: 事前知識と背景知識から規則的な構造を取得できる

一般的なビデオ コーデック方式には、H.26X (H.264、H.265 など)、MPEG などが含まれます。ここで、異なるビデオ パッケージ形式は実際には同じエンコードおよびデコード方法を使用する可能性があり、パッケージ形式は異なるメーカーのパッケージであることに注意してください。これは、複数のアイスクリームメーカーがアイスクリームのフレーバーを製造しているのに、外箱が異なるようなものです。

ビデオデコード

エンコードを行う場合には、当然デコードも必要になります。
エンコードされたコンテンツはそのまま利用することができないため、利用(視聴)する際にはデコードし、元の信号(映像のある点の色など)に戻すことがデコードとなります。

ビデオデコード処理とは、ある符号化方式(H264)で符号化されたバイナリデータをYUVピクチャに復号する処理、すなわち「H.264->YUV」のことである最も広く使用されているのは、オープン ソースのコーデック スイートである FFmpeg で、一般的なコーデック メソッドとパッケージ化フォーマット (ビデオ フォーマット) を幅広くカバーしています。

パッケージ形式

私たちがよく見るビデオ形式はmp4、avi、mkvです。技術概念では、これは「ビデオ カプセル化フォーマット」と呼ばれ、ビデオ フォーマットと呼ばれます。これには、ビデオ ファイルをカプセル化するために必要なビデオ情報、オーディオ情報、および関連する設定情報 (ビデオおよびオーディオ関連情報、カプセル化方法など) が含まれています。デコードなど)これはシェルであり、コンテナに相当します。一般的なカプセル化形式は、mp4、mkv、webm、avi、3gp、mov、wmv、flv、mpeg、asf、rmvb などです。

画像

(1)カプセル化形式 (コンテナとも呼ばれます) は、エンコードおよび圧縮されたビデオ トラックとオーディオ トラックを特定の形式に従ってファイルに入れることです。つまり、ビデオ トラックと見なすことができる単なるシェルです。トラックフォルダーも利用できます。
(2) 平たく言えば、映像トラックはご飯、音声トラックは食器に相当し、その包装形態は、お椀や鍋など、食事を入れる容器である。
(3) 包装形態は特許に関係しており、包装形態を発売する企業の利益に関係します。
(4)パッケージ形式により、字幕、吹き替え、音声、映像を組み合わせることができます

MKV 形式でのパッケージ化の例:

ビデオプレーヤーの原理

非常に多くの概念について説明したので、ビデオ プレーヤーの原理がどのように機能するかを理解できるようになります。

以下に動画ファイルを再生する際のフローチャートを示します。

メディアプロトコル

1. ストリーミングメディア伝送プロトコル

ローカル ビデオの再生に加えて、私たちがよく使用するのは、ビデオのオンライン再生 (オンデマンド、ライブ ブロードキャスト) です。オンラインでプレイする必要がある場合は、ストリーミング メディア プロトコルのサポートを使用する必要があります。一般的なストリーミング メディア送信プロトコルには、RTP、SRTP、RTMP、RTSP、RTCP などが含まれます。このうち、RTP(Real-time Transport Protocol)はリアルタイムトランスポートプロトコルであり、SRTPは音声や映像データの盗用を防ぐための安全なリアルタイムトランスポートプロトコル、つまりRTPに基づく暗号化伝送である。RTMP (Real Time Messaging Protocol) は、TCP に基づく Adob​​e のオープンソースのリアルタイム メッセージ送信プロトコルで、基本プロトコルには RTMPE、RTMPS、RTMPT が含まれます。RTSP (Real Time Streaming Protocol) はリアルタイム ストリーミング プロトコルであり、そのフィールドには、OPTIONS、DESCRIBE、SETUP、PLAY、PAUSE、TEARDOWN などが含まれます。RTCP (RTP Control Protocol) は RTP 伝送制御プロトコルであり、パケット損失と伝送遅延をカウントするために使用されます。

2. ストリーミングメディアアプリケーションプロトコル

ストリーミング メディア アプリケーション プロトコルには、HLS、DASH が含まれます。このうち、HLS は Apple のオープンソースのストリーミング メディア伝送アプリケーション プロトコルであり、m3u8 プロトコルと ts ストリームの両方が含まれます。DASH は Google で広く使用されているストリーミング メディア プロトコルで、fmp4 スライスを使用し、アダプティブ ビット レートと複数のビット レートのシームレスな切り替えをサポートしています。

3. WebRTC シグナリングプロトコル

WebRTC (Web Real-Time Communications) は、ネットワーク アプリケーションまたはサイトが仲介者なしでブラウザ間でピアツーピア (ピアツーピア) 接続を確立し、ビデオ ストリーミングやビデオの送信を実現できるリアルタイム通信テクノロジですオーディオ ストリームやその他の任意のデータ。WebRTC シグナリング プロトコルには、SDP、ICE、NAT、STUN、TURN が含まれます。もちろん、WebRTC のネットワーク伝送プロトコルは、前述のストリーミング メディア伝送プロトコルにも役立ちます。

4. オーディオおよびビデオのコーディング プロトコル

一般的に使用されるオーディオ エンコード プロトコルは、MP3、AAC、OPUS、FLAC、AC3、EAC3、AMR_NB、PCM_S16LE です。ビデオ エンコード プロトコルには、H264、HEVC、VP9、MPEG4、AV1 などが含まれます。関連するオーディオおよびビデオ コーデック プロトコルについては、「オーディオとビデオの世界へ - オーディオとビデオのエンコード」および「オーディオとビデオの世界へ - オーディオとビデオのデコード」を参照してください。

5. オーディオおよびビデオのパッケージ形式

一般的に使用されるビデオ パッケージ形式は、mp4、mov、mkv、webm、flv、avi、ts、mpg、wmv などです。一般的に使用されるオーディオ パッケージ形式は、mp3、m4a、flac、ogg、wav、wma、amr などです。パッケージ化形式は、マルチメディア情報、オーディオおよびビデオ ストリームを含むマルチメディア コンテナです。このうち、マルチメディア情報には、再生時間、解像度、フレーム レート、ビット レート、サンプリング レート、チャンネル数などが含まれます。これらは、前述したオーディオおよびビデオの開発基盤に関連する概念です。オーディオおよびビデオコードストリームは、元のデータを符号化および圧縮して得られるいくつかのフレームから構成されるストリームであり、字幕コードストリームは、通常、特定の形式のテキストまたはビットマップで構成されます。パッケージ形式については、以前に書いた記事「オーディオとビデオの世界へ - オーディオ パッケージング形式」および「オーディオとビデオの世界へ - ビデオ パッケージング形式」を参照してください。

上記に係る協定は以下のとおりです。

学習パス

1. オーディオとビデオの基本

オーディオの基本

オーディオには、サンプリング レート、チャンネル数とチャンネル レイアウト、サンプリング形式、PCM と波形、音質、オーディオ エンコード形式、オーディオ カプセル化形式が含まれます。詳細については、上記コンテンツ、オーディオとビデオの基本的な概念を参照してください。

一般的な基礎

一般的な内容には、コーディング原則、C/C++ の基本、ビデオ分析ツール、FFmpeg 共通コマンド、プラットフォーム関連のマルチメディア API が含まれます。

ビデオの基本

ビデオには、フレーム レート、ビット レート、解像度、ピクセル形式、色空間、I フレーム、P フレーム、B フレーム、DTS と PTS、YUV と RGB、ビット深度と色域、ビデオ エンコード形式、およびビデオ パッケージ形式が含まれます。詳細については、上記コンテンツ、オーディオとビデオの基本的な概念を参照してください。

2. 高度なオーディオとビデオ

1. 高度なオーディオ
オーディオとビデオの高度な成長も、オーディオ、一般、ビデオに分けられます。オーディオには、録音、マイク取得、オーディオ コーデック、オーディオ再生、オーディオ分析、サウンド エフェクトが含まれます。

2. 一般 上級
一般には、ストリーミング メディア プロトコル、オーディオとビデオの送信、オーディオとビデオの同期再生、プラットフォーム関連のマルチメディア アプリケーション、FFmpeg 関連の API アプリケーション、OpenGL レンダリング、オーディオとビデオの編集に関する知識が含まれます。

3. 高度なビデオ
ビデオには、ビデオ録画、カメラ キャプチャ、ビデオ コーデック、ビデオ再生、フィルター効果、ビデオ トランスコーディングが含まれます。次の図に示すように、オーディオとビデオの知識に基づいて徹底的に学習します。

3. オーディオおよびビデオ関連のオープンソース ライブラリ

1. マルチメディア処理
マルチメディア処理には、FFmpeg、libav、Gstreamer が含まれます。その中で、FFmpeg は現在最も一般的に使用されているオーディオおよびビデオ処理ライブラリであり、カプセル化形式、コーデック、フィルター、画像スケーリング、オーディオ リサンプリングなどのモジュールが含まれています。

2. ストリーミングメディア伝送
ストリーミングメディア伝送には、WebRTC や live555 が含まれます。その中で、WebRTC は現在最も一般的に使用されている RTC ライブラリであり、より有名なモジュールとしては、JitterBuffer、NetEQ、ペーサー、ネットワーク帯域幅推定などがあります。

3. プレーヤー
プレーヤーには、ijkplayer、exoplayer、vlc が含まれます。その内、ijkplayer は Bilibili のオープンソース クロスプラットフォーム プレーヤー、exoplayer は Google による Android プラットフォーム用のオープンソース プレーヤー、vlc は非営利団体 VideoLAN によってオープンソースです。

4. コーデック
一般的に使用されるコーデックには、aac、mp3、opus、vp9、x264、av1 があります。このうち、aac は一般的に VOD やショートビデオに使用され、opus は RTC ライブブロードキャストに使用されます。vp9 は Google のオープン ソース エンコーダで、VideoLAN は x264 エンコーダを提供し、av1 は AOMedia (Alliance for Open Media) によってオープンソース化された新世代のビデオ エンコーダです。

5. オーディオ処理
オーディオ処理用のオープンソース ライブラリには、sox、soundtouch、speex などがあります。中でもソックスはオーディオ処理業界ではスイスアーミーナイフと呼ばれており、様々な効果音を作り、様々なフィルターを提供することができます。soundtouch は可変速度とピッチ変更に使用され、可変速度は一定ピッチに使用されます。Speex は厳密に言えばエンコーダですが、PLC (パケットロス隠蔽)、VAD (無音検出)、DTX (不連続伝送)、AEC (エコーキャンセル)、NS (ノイズ抑制) など、豊富なオーディオ処理モジュールを備えています。

6. ストリーミング メディア サーバー
ストリーミング メディア サーバーの主流は、SRS、janus です。その中でも、SRS は、RTMP、WebRTC、HLS、HTTP-FLV、SRT をサポートするシンプルで効率的なビデオ サーバーです。そして、janus は MeetEcho のオープンソース WebRTC ベースのストリーミング メディア サーバーであり、厳密に言えばゲートウェイです。

7. オーディオとビデオの分析 オーディオ
とビデオの開発には分析ツールが不可欠であり、分析ツールの使い方を習得することは非常に重要です。一般的に使用されるオーディオおよびビデオ分析ツールには、Mp4Parser、VideoEye、Audacity などがありますが、これらに限定されません。このうち、Mp4Parser は、mp4 形式とその構造を解析するために使用されます。VideoEye は、Windows プラットフォームに基づいてビデオ ストリームを分析するための Raytheon のオープン ソース ツールです (これは Raytheon のオープン ソース精神への敬意です)。Audacity は、さまざまなサウンド効果を追加したり、オーディオ波形を分析したりするために使用できるオープンソースのオーディオ エディターです。

8. ビデオ レンダリング
ビデオ レンダリングに関連するオープン ソース ライブラリには、GPUImage、Grafika、LearnOpenGL が含まれます。その中でもGPUImageを使うと様々なフィルター効果を追加することができます。Grafika は、Google のエンジニアによる Android プラットフォームに基づくオープンソースのレンダリング サンプル ライブラリです。LearnOpenGL は主に Web サイト用の OpenGL 学習チュートリアルです。

関連するオープンソース Web サイトとアドレスは次のとおりです。

計画 価値
FFmpeg https://ffmpeg.org/
WebRTC https://webrtc.org.cn/
RTCコミュニティ https://rtcdeveloper.agora.io/
RFCプロトコル https://www.rfc-editor.org/rfc/
OpenGL https://learnopengl-cn.github.io/
GPUI画像 https://github.com/BradLarson/GPUImage
コンピューター https://www.videolan.org/projects/
AOMメディア https://aomedia.org/
xiph.org https://gitlab.xiph.org/
VP9 https://www.encoding.com/vp9/
サウンドタッチ http://soundtouch.surina.net/
ソックス http://sox.sourceforge.net/

開発の方向性

おすすめ

転載: blog.csdn.net/qq_38056514/article/details/129848687
おすすめ