【HDR学習】HDR映像関連知識解説(1)

【バックグラウンド】

理由: HDR は、最初は静止画の技術として有名になりました。静止画写真では、複数の露出を撮り、シャドウとハイライトの両方の詳細を含む 1 つの画像にそれらを重ね合わせるこの方法が HDR 写真です。

テクノロジーの進歩に伴い、人々の映画やテレビの視聴体験はますます向上しており、それはビデオ解像度だけでなくビデオ品質にも反映されています。現在、ビデオの解像度はますます大きくなり、720P、1080Pから4K、8Kへと徐々に発展し、ビデオの品質はますます現実的になり、SDRビデオからHDRビデオへと徐々に発展しています。HDR は、SDR の表示範囲を拡張し、より広い色範囲、より明るい輝度の上限とより暗い輝度の下限を備え、同時にコントラスト、グレースケール解像度などの点で全体的な画質を向上させ、体験者により多くの効果をもたらします。没入感。

【基本知識】

人間の目の主観的体験の5 つの側面: 解像度とフレーム レート (人間の目の限界近くまで引き上げられています)、ビット深度、広色域 (WCG)、および高ダイナミック レンジ (HDR) (技術的な限界値)画期的な進歩)。

1)明るさ

単位はカンデラ/平方メートル(cd/m2)またはnitで、明るさは色の明暗を意味する明度とも呼ばれます。

SDR/LDR (ノーマルダイナミックレンジ): 0.05-100nits
HDR (ハイダイナミックレンジ): 0.0005-10000nits

2)色域

技術システム (表示デバイス) が生成できる色の合計。広い色域でより多くの色を表示できるため、実際の色に近づけることができます。
色域規格(色空間):sRGB(BT.709)、DCI-P3(Apple推奨)、BT.2020

(色域マッピング) 

トーン マッピングは、限られたダイナミック レンジのメディア上でハイ ダイナミック レンジの画像を近似するコンピュータ グラフィックス技術です。(HDR -> SDR)

3)ビット深度

単位ビットは各ピクセルの色を保存するために使用されるビット数です。ビット深度が高いほど色の変化が滑らかになり、HDR には少なくとも 10 ビットが必要です。

一般化 HDR=HDR+WCG (BT.2020) + ビット深度 (10 ビット)

たとえば、8 ビットはベース カラーが 2 の 8 乗 (256) レベルを持つことができることを意味し、10 ビットはベース カラーが 2 の 10 乗 (1024) レベルに分割できることを意味します。三原色で表現できる色のレベル、つまり表現できる色の数を掛け合わせます。たとえば、色深度は 12 ビット、つまり、赤、緑、青の三原色は 2 ビットになります。グレー レベルの 12 (4096) 乗を乗算すると、4096 の 3 乗、つまり 687 億色になります。ディスプレイの色深度(色レベル)が高いほど、色の変化が滑らかで繊細になりますが、色深度が足りないと硬く見えたり、グラデーション感が生じたりします。

4) 解像度

ディスプレイ解像度と画像解像度の2つの方向から分類できます。

ディスプレイ解像度 (画面解像度) は画面画像の精度であり、モニターが表示できるピクセル数を指します。明らかに、解像度が高くなるほど、ディスプレイに表示できるピクセルが増え、画像がより鮮明になります

画像解像度は画像に保存される情報量を指し、画像の 1 インチあたりのピクセル数を指します。解像度の単位は PPI (Pixels Per Inch) で、通常は 1 インチあたりのピクセル数と呼ばれ、画像解像度の表現も次のようになります。 「横の画素数×縦の画素数」。

質問: 画像の解像度がディスプレイの解像度と一致しませんか?

画像の解像度がディスプレイの解像度より小さい場合、1:1、つまり 1 つのピクセルが 1 つのピクセルに対応して表示される場合、画面いっぱいにはなりません。たとえば、グラフィックス カード入力が 640x480 で、モニターが 1280x1024 の場合、モニターの左上隅にある 640x480 ブロックには鮮明な画像があり、残りの領域は黒であることがわかります。フルスクリーンにするためには画像の拡大縮小(スケーリング)を行う必要があり、画面にピクセルを追加することで、横640ピクセルを1280ピクセル、横480ピクセルにする必要があります。垂直方向は 1024 ピクセルまでにする必要があり、補間アルゴリズムはスケーラー IC に依存します。

逆に画像の解像度がディスプレイの解像度より大きい場合は、それを補う代わりに画素数を減らさなければなりませんが、その際に画像の画素数が圧縮され、細部まで鮮明な画像が得られます。画像が失われ、詳細が不明瞭になります。たとえば、デジタルカメラの画面では完全な写真を見ることができますが、ぼやけて感じられます。画面の解像度が低いため、パソコンで見たほうがはるかに優れています。

5) フレームレート

1 秒間のビデオが連続しているように見えますが、実際には数十枚の写真で構成されています。これらの数十枚の写真は、ビデオの効果を形成するために連続的に再生されます。これらの画像は、ビデオ技術では「フレーム」と呼ばれます。比較的スムーズな効果を維持するには、人間の目が遅延を感じないように、フレーム レートを少なくとも 25 フレーム以上に保つ必要があります。4K ビデオの場合、フレーム レートは 30、50、または 60 です。視聴効果から判断すると、フレームレート60が最も滑らかに見えるのでしょう。ただし、フレーム レートが 60 の場合、ビデオのビット レートが高くなり、占有される帯域幅が大きくなります。

【HDR・SDR】画像・動画

HDR (ハイ ダイナミック レンジ) はハイ ダイナミック レンジであり、「ハイ ダイナミック ライティング レンダリング」とも呼ばれます。HDR 画像(ハイ ダイナミック レンジ 画像) は、HDRI と呼ばれるハイ ダイナミック レンジ画像であり、各露出瞬間の最高のディテールに対応する LDR 画像 (ロー ダイナミック レンジ、低ダイナミック レンジ) を最終的な HDR 画像に合成します。 ; 人気 つまり、同じ写真を複数枚露出して撮影し、1枚の画像に合成することです。HDR ビデオは、通常のビデオよりも鮮明で質感のある HDR 特殊効果を備えた特別なビデオです。HDR 画像と HDR ビデオは両方ともHDR テクノロジーに基づいています。HDR は概念であり、特別な画像/ビデオ ファイル形式です。HDR の重要性は、表示画面を人間の目で観察される現実世界に近づけることです

HDR画像とSDR画像の違い

1. 異なる概念: HDR の正式名はハイ ダイナミック レンジであり、ハイ ダイナミック レンジ画像を指します。SDR の正式名はスタンダード ダイナミック レンジで、標準ダイナミック レンジ画像を指します。

2. 明るさの範囲が異なります。HDR は、異なる露光時間の LDR (ロー ダイナミック レンジ) 画像に基づいており、各露光時間の最良のディテールに対応する LDR 画像を使用して、より良く反映できる最終的な HDR 画像を合成します。環境における実際の視覚効果。

3. 画像の細部のパフォーマンスが異なります: HDR テクノロジーは、明暗の間で画像のより詳細なパフォーマンスを得ることができます。同じ画像内で、SDR では、1 から 100 までの点を 1 の間隔で結ぶ曲線になります。HDR では、間隔が 1 よりもはるかに小さい点で 1 ~ 1000 の間で接続された曲線です。もちろん、後者の方が画像内の光と色の勾配やレベルをよりよく表現できます。

大きく分けると、HDRはハイダイナミックレンジ画像、SDRは標準ダイナミックレンジ画像を指す、輝度範囲が異なる、HDRはSDRよりもデータ容量が大きく明るい、コンセプトが異なる、という3点が異なります。 HDR テクノロジーは、明るい部分と暗い部分の間で画像の詳細をより詳細に取得できます。

HDR ビデオと SDR ビデオの違いは次のとおりです。

HDR ビデオ画像は、明るい部分と暗い部分の詳細をより詳細に表示できます。画像は豊かな色と鮮明で自然なディテールを備えているため、画像は人間の目で見るものに近くなります。SDR ビデオの色の彩度と画像のコントラストはそれほど良くありません。 HDR ビデオと比較すると、SDR ビデオの映像は暗く不自然に見えると同時に、明るい部分と暗い部分のディテールが明らかに不足しています。

再生条件:HDRビデオリソース、HDRをサポートするモニターまたはHDR TV、HDRビデオをサポートするプレーヤーソフトウェアが再生可能。

現時点では、 HDR ビデオ ソースは比較的限られており、主な入手方法は、HDR をサポートするゲーム (Rise of the Tomb Raider など)、Blu-ray 映画ビデオ、Netflix (ネットフリックス)、YouTube、iTunes です。 、Vimeo、iQiyi (まだ見ていません) 間違っています。iQiyi は HDR ビデオをサポートする中国初のプラットフォームです)、Youku (Youku には現在 HDR モードがあります)、Sony Fuji カメラ、NHK/BBC、その他のテレビ局。

【HDR技術】

1)ドルビービジョン(ドルビービジョン)

本質的には一連の高画質化技術ですが、ここではHDR部分を中心に紹介します。ドルビーラボラトリーズの研究者は、HDR にどの程度のダイナミックレンジが必要かを調査する際に主観的なテストを実施し、回答者の約 90% が 0 ~ 10,000 nits (cd/m2) の輝度範囲に満足しました。そこでドルビーは、ドルビービジョン規格の中核として、理論上の最大輝度10,000ニト(cd/m2)のEOTF(電気光学伝達関数、電気光学伝達関数)曲線PQを設計しましたが、これを実現できる表示デバイスはありません。現在、コンテンツ規格でドルビービジョンが使用する実際の最大輝度値は 4,000 nits (cd/m2) です。Dolby Vision は、最大 12 ビットのビット深度と Rec.2020 の広色域をサポートし、下位互換性のために独立した SDR バージョンを備えています。

2) HDR10 および HDR10+

HDR10 の正式名称は HDR10 Media Profile で、2015 年 8 月 27 日に Consumer Technology Association (CTA) によって発表されました。HDR10 は、Rec. 2020 広色域、10 ビットのビット深度、伝送曲線として SMPTE ST 2084 (PQ) [4]を採用、SMPTE ST 2086 色ボリューム メタデータ (マスタリング ディスプレイ カラー ボリューム)、最大フレーム平均輝度レベル (最大フレーム平均) を使用ライト レベル (MaxFALL) および最大コンテンツ ライト レベル (MaxCLL)、HDR10 はデータ エンコードに高効率ビデオ コーディング (HEVC) を使用します。HDR10 は SDR との互換性をサポートしていないため、従来のブロードキャスト TV ストリームでは使用できません。無料のDolby Visionの簡易版とも言えます。

HDR10+ は、2017 年 4 月 20 日に Samsung と Amazon Video によってリリースされた HDR10 をベースにした規格です。HDR10+ は、HDR10 と比較して Rec.2020 広色域と 10 ビットのビット深度を採用し、動的メタデータ (SMPTE ST2094-40) を追加します。HDR10+ の動的メタデータは、シーンごとまたはフレームごとにトーンと明るさのレベルの調整をより正確に最適化することです。

3) HLG

Hybrid Log-Gamma (HLG) は、BBC と NHK が共同開発した HDR 規格です。スタンダードダイナミックレンジ(SDR)に対応し、Rec.2020の広色域と10ビットのビット深度にも対応します。HLG は、信号値の下半分がガンマ曲線を使用し、信号値の上半分が対数曲線を使用する非線形光電子伝達関数 (OETF) を定義します。HLGはSDRと互換性があり、現在テレビ局の主な映像制作ではこの形式が採用されています

概要: Dolby Vison、HDR10、HDR10+、HLG の 4 つの HDR 規格間の関連技術パラメータの比較。

非常に多くの標準には競合する部分がありますが、依然としてさまざまな分野で独自の傾向があります。映画制作会社の場合、劇場映画の HDR バージョンの作成を選択できるのは Dolby Vision のみであり、現在、(Dolby Cinema の一部として) 劇場をサポートできるオプションがあるのは Dolby Vision 標準のみです。放送においては、当然HLGが大きなシェアを占めています。ストリーミング メディアや Blu-ray 映画などのホーム エンターテイメント サービスには、それぞれのシェアがあります。

【関連概念】

  • メタデータ

HDR技術においてメタデータとは、主に色と明るさの2つの側面に関する情報、具体的には画像の解像度、色域範囲、クロマサンプリング、色深度、ビットレート、エンコード形式、フレームなどの動画画面上の非常に重要な情報を記録するものです。レート、アスペクト比、生産段階での表示デバイスの輝度など。そのうち 2 つのメタデータは非常に重要です。つまり、MaxCLL コンテンツの最高輝度レベルと MaxFALL 平均フレームの最高輝度レベルですこの情報を通じて、HDR ディスプレイ デバイスが、これらの重要な詳細レベルの情報を失うことなく、HDR 画像の色と明るさの詳細を正しく処理できるようになります。機能的に言​​えば、HDR メタデータは、ディスプレイ デバイスが画面コンテンツをより適切に表示するのに役立ちますコンテンツと範囲の観点から、静的メタデータと動的メタデータに分類できます。

1.静的メタデータ:各フレームの色と詳細を制御するために同じメタデータがビデオで使用され、フレーム間で変化しません。利点はもちろんシンプルですが、欠点も同様に明白です。ムービー全体で同じメタデータを使用して光と影の変化を制御しますが、ムービー内の各フレームのダイナミック レンジは同じではなく、問題が発生しやすいです。雪を頂いた山、暗い夜、その他のシーンなど、シーンの暗い部分やハイライトの部分が失われます。これは、初期の HDR ディスプレイ デバイスの HDR 画像パフォーマンスが不十分な主な理由でもあり、黒レベルが非常にしっかりしていて太陽がいっぱいである場合や、画像が露出オーバーになりハイライト レベルが失われる傾向がある場合があります。

以下の3つのパートを含みます。

最初の部分は、ビデオ コンテンツのマスタリングに使用されるディスプレイの色量情報 (色空間、白色点、最大および最小輝度範囲) であり、  SMPTE ST 2086規格で定義されています。

2 番目の部分は最大コンテンツ ライト レベル (MaxCLL) で、ビデオ全体のすべてのフレームで最も明るいピクセルの明るさを示します。

3 番目の部分は最大フレーム平均光レベル (MaxFALL) で、ビデオ全体の中で最も明るいフレームの平均輝度を表します。

利点はもちろんシンプルさです

2.動的メタデータ:各フレームまたは各シーン切り替えのメタデータを指定できます。HDR 画像の輝度パフォーマンスを最大化するには、豊富なレベルの暗部とハイライトの詳細を保持しながら、各シーンのダイナミクスを完全に解放できるようにしてくださいHDR10+ と Dolby Vision は両方とも動的なメタデータを採用しています。

メタデータ: SMPTE ST 2086、SMPTE ST 2094、CEA-861.3

  • トーンマッピング

メタデータを使用して、正しい HDR 画面表示を実現するには、正しいトーン マッピングも必要です。表示装置のトーンマッピングも静的マッピングと動的マッピングに分けられます。

静的マッピングは、HDR プログラム ソース内の静的メタデータに基づいてムービー全体でシングル トーン マッピングを実行するか、単一の輝度カーブを使用してハイライト ロールオフやハイ カット ポイントに対処します。これには、高い HDR 処理パフォーマンスは必要ありません。表示デバイスは実装が比較的簡単で、すべての HDR デバイスは静的マッピングをサポートしています。

動的マッピングは動的メタデータと同等ではありません。これら 2 つは連携して動作できますが、動的マッピングは独立して実行することもできます。運用効率と精度の観点からは、動的メタデータと組み合わせた動的マッピングが最も理想的ですHDR10+ および Dolby Vision のダイナミック メタデータにより、表示デバイスに高性能プロセッサを搭載する必要がなくシーンごと、さらにはフレームごとのダイナミック マッピングを実現できます。この方法は、前処理ダイナミック マッピング技術に属します。そして、静的メタデータを使用する多数の HDR10 プログラム ソースに遭遇した場合、動的マッピング処理を実行したい場合は、表示デバイスの内蔵処理システムに頼るしかありません。この方法は後処理の動的マッピング処理に属し、画像が正しいことを保証するものではないことに注意してください。ディスプレイ デバイスの後処理ダイナミック マッピング処理機能がユーザーにある程度の調整可能なスペースを残すことが多いのもこの理由からです。たとえば、異なる処理強度を持つ 3 つの設定が予約されています。ハイライトまたはシャドウのどちらを好むかを選択してください。 。前述の動的メタデータと動的マッピングを組み合わせた前処理動的マッピング モード (HDR10+ など) には、基本的にオンまたはオフにするオプションしかありません。

  • HLG/PQ/ガンマーカーブ

SDRは一般的にGammar関数を使用するのですが、「明るさが100を超えると同じ値にマッピングされてしまう」という問題があります。

HDR には HLG HDR と PQ HDR が含まれます。「HLG」と「PQ」は電気光学伝達関数を指します。HLG/PQカーブの違いとメリット・デメリット

PQ関数:

• 提供者: ドルビー

• 最大輝度: 10,000 ニット

• 規格: SMPTE ST 2084、BT.2100

• 具体的なソリューション: Dolby Vision、HDR10、SL-HDR1

光と電気の伝達関数: OOTF EOTF OETF 説明

  • 生産者と消費者のパターン

SurfaceFlinger はアプリケーション UI の描画を担当するコアであり、名前からわかるように、その機能はすべての Surface を合成することです。 

使用されるレンダリング API に関係なく、最終的にはすべてが「サーフェス」にレンダリングされます。

Surface は BufferQueue のプロデューサー側を表し、SurfaceFlinger によって消費されます。これは基本的なプロデューサー/コンシューマー モデルです。

【ソフトウェア&Webサイト】まとめ

ビデオ情報を閲覧するためのソフトウェア:MediaInfo

HDRについて詳しく解説

HDR 効果のある AVIF 形式の画像ソースのダウンロード

おすすめ

転載: blog.csdn.net/cocoduco/article/details/129675628