Androidのライブ検出テクノロジーの超シンプルな統合により、「偽の顔」をすばやく特定

Androidのライブ検出テクノロジーの超シンプルな統合により、「偽の顔」をすばやく特定

序文

そのような懸念はありましたか?スワイプしてロックを解除しても本当に安全ですか?誰かが私の写真またはビデオで私になりすましている場合、電話は私がカメラの前にいないことを知ることができますか?もちろん。HuaweiのHMS ML Kitライブ検出テクノロジーは、実際の顔と「偽の顔」を正確に区別できます。フェイスリテイク写真、フェイスビデオリプレイ、フェイスマスクのいずれであっても、ライブ検出テクノロジーはこれらの「偽の顔」を即座に露出し、「偽の顔」を非表示にすることができます。
ここに画像の説明を挿入

アプリケーションシナリオ

通常、顔検出技術の前に生体検出技術を使用して、写真やマスクを使用して偽装した人物ではなく、カメラの前の人物が本物の人物であることを確認し、現在の顔と入力した顔が同じ人物かどうかを比較します。生体検出技術には、さまざまなアプリケーションシナリオがあります。たとえば、携帯電話のロックが解除されると、ライブ検出技術により、誰かが偽装して携帯電話のロックを解除し、個人情報が漏洩するのを防ぐことができます。
ここに画像の説明を挿入

または、金融サービスを扱う場合、実名認証プロセスで生体検出技術を使用して、まず現在の顔が本物の顔であると判断し、次に現在の顔とIDカードの写真情報を比較して、ビジネスを処理する人がIDカードの人であることを確認できます。 、他人が自分になりすまして財産を失うことを効果的に防ぎます。
ここに画像の説明を挿入

また、HMS ML Kitの生体検知技術は、無音の生体検知に対応しており、本人の顔であるかどうか、本人であるかどうかをユーザーが協力して判断する必要がなく、とても便利ですか?次のエディターは、ライブ検出テクノロジーをすばやく統合する方法を示します。

開発戦闘

1.開発準備

詳細な準備手順については、Huawei Developers Allianceを参照して
ください。https//developer.huawei.com/consumer/cn/doc/development/HMS-Guides/ml-process-4
主な開発手順は次のとおりです。

1.1プロジェクトレベルのGradleでMaven倉庫アドレスを構成する

buildscript {
    
    
    repositories {
    
    
             ...
        maven {
    
    url 'https://developer.huawei.com/repo/'}
    }
}
 dependencies {
    
    
                 ...
        classpath 'com.huawei.agconnect:agcp:1.3.1.300'
    }
allprojects {
    
    
    repositories {
    
    
             ...
        maven {
    
    url 'https://developer.huawei.com/repo/'}
    }
}

1.2アプリケーションレベルのGradleでSDKの依存関係を構成する

 dependencies{
    
    
        // 引入活体检测集合包。
        implementation 'com.huawei.hms:ml-computer-vision-livenessdetection:2.0.2.300'
}

1.3ファイルヘッダーに構成を追加する

apply plugin: 'com.android.application'
apply plugin: 'com.huawei.agconnect'

1.4次のステートメントをAndroidManifest.xmlファイルに追加して、機械学習モデルをデバイスに自動的に更新します

<meta-data 
  android:name="com.huawei.hms.ml.DEPENDENCY" 
  android:value= "livenessdetection"/>

1.5カメラの許可を申請する

カメラ許可申請の具体的な手順については、https//developer.huawei.com/consumer/cn/doc/development/HMSCore-Guides/add-permissions-0000001050040051を参照してください。

2.コード開発

2.1ライブ検出結果のコールバックを作成して、検出結果を取得します。

  private MLLivenessCapture.Callback callback = new MLLivenessCapture.Callback() {
    
    
     @Override
     public void onSuccess(MLLivenessCaptureResult result) {
    
    
       //检测成功的处理逻辑,检测结果可能是活体或者非活体。
     }
     
     @Override
      public void onFailure(int errorCode) {
    
    
       //检测未完成,如相机异常CAMERA_ERROR,添加失败的处理逻辑。
    }
 };

2.2ライブ検出インスタンスを作成し、検出を開始します。

MLLivenessCapture capture = MLLivenessCapture.getInstance();
capture.startDetect(activity, callback);

デモ効果

次のデモは、カメラの前に実際の顔とフェイスマスクがある場合のライブ検出テクノロジーの検出結果を示しています。
ここに画像の説明を挿入

Githubソースコード

https://github.com/HMS-Core/hms-ml-demo/blob/master/MLKit-Sample/module-body/src/main/java/com/mlkit/sample/activity/HumanLivenessDetectionActivity.java

詳細な開発ガイドラインについては、Huawei Developer Allianceの公式Webサイトを参照してください。

https://developer.huawei.com/consumer/cn/hms/huawei-mlkit


元のリンク:https : //developer.huawei.com/consumer/cn/forum/topicview?tid=0203345286567820416&fid=18
著者:葉を残す

おすすめ

転載: blog.csdn.net/weixin_44708240/article/details/108732119