3Dバーチャルデジタルヒューマンのライブ配信を実現する方法1:全身姿勢推定

I.はじめに

ビジネス要件:3Dバーチャルデジタルヒューマンのライブ配信を実現

インタラクションプロセス: [現実の人物/ビデオ] モーション キャプチャ [フェイス キャプチャ + モーション キャプチャ] => 2D/3D デジタル ヒューマン モーション マッピング =「シーンの視覚化プレゼンテーション」 

技術的なポイント:

1. モーションキャプチャ:

(1) 対面逮捕:Live Link

(2) モーションキャプチャ:全身/手/足

        2.1 光学センサー: ハードウェアデバイス

        2.2 カメラ: 単眼カメラ/アイキャッチカメラ

この記事は最初の記事で、デジタル ヒューマン モーション キャプチャの技術ソリューションに関する研究のプロセスを記録しています。

  2. モーションキャプチャ:オープンポーズ

 

 

プロジェクトアドレス: Python バージョン

おすすめ

転載: blog.csdn.net/zhangziliang09/article/details/127832801