人間の姿勢推定におけるYOLOv7とMediaPipeの比較

過去記事のシェアでは、YOLOv7人体姿勢推定とMediaPipe人体姿勢推定の記事を紹介しました。YOLOv7 と MediaPipe はどちらも人間の姿勢推定を実行できるため、この号では 2 つのアルゴリズムの違いを比較します。

機械学習を使用して、人体の 33 の 2D ポーズを検出して評価します

人工知能の分野も巻き込みか? YOLOシリーズがまた一新、YOLOv7が誕生

深層学習に基づく人間の姿勢推定

Google が 2014 年に DeepPose を初めてリリースして以来、ディープ ラーニングに基づく姿勢推定アルゴリズムは大きな進歩を遂げました。これらのアルゴリズムは通常、2 つのフェーズで機能します。

人员检测
关键点定位

デバイス [CPU/GPU/TPU] に応じて、異なるフレームワークのパフォーマンスが異なります。Alpha Pose、OpenPose、Deep Pose など、ベンチマークでうまく機能する 2 段階の姿勢推定モデルが多数あります。ただし、得られるリアルタイム パフォーマンスは、2 次モデルが相対的に複雑であるため、非常に高くつきます。これらのモデルは、GPU では高速に実行されますが、CPU では低速です。MediaPipe は、効率と精度の点で姿勢推定の優れたフレームワークです。CPU でリアルタイムの検出を生成し、高速です。

YOLOv7

従来のポーズ推定アルゴリズムとは異なり、YOLOv7 ポーズは単一ステージの複数人のキーポイント検出器です。トップダウンとボトムアップの両方のアプローチの利点があります。YOLOv7 の姿勢は COCO データセットでトレーニングされています. 前回の記事では、YOLOv7 人間の姿勢検出のコードも共有しました.

おすすめ

転載: blog.csdn.net/weixin_44782294/article/details/128054547