顔認識の深さの研究

ディープ学習は、標準的な機械学習の一例であり、より正確に - そのアルゴリズムの一つです。最大限にするために、人間の脳と神経細胞間の相互作用の概念に基づいています。あなたがGoogleの検索深さの学習を開始した場合、あなたは今日は新しいから遠く離れているこの超人気言葉がありますどのような。これはなぜでしょうか?用語自体は1980年代に登場したが、2012年までに、この技術を実装するのに十分な電力、それまでほとんど関心がありません。

記事、出版物、科学雑誌の科学者の一連の後、この技術はすぐにウイルスになりました。今日では、顔認識のための重要な場所である多種多様なアプリケーションを、持っています。まず、学習の深さは、生体認証ソフトウェアを構築する能力を提供し、ソフトウェアを一意に識別や人を確認することができます。このすべては、人間の顔認識機能をアウトパフォームし、なぜなら、非常に大きなデータセットを利用して顔の顔が豊富なとコンパクトな表現を学ぶことを学ぶ良い行動の最初の近代的なモデルを可能にする深さです。

それは私たち人間自明の機能のために(例えば、目の色が)画像の各画素のコンピューター解析に意味がないことが判明します。研究者たちは、最も適した方法を収集するために必要な特性を決定するためにコンピュータを作ることであることがわかりました。ターンでは、深さがより良く、より速く識別を学ぶことができます。

最近発見されたと言うし、この可能性、またはより良いです。最初は、誰もがニューラルネットワークは、人間のレベルに近い達成できないことに同意します。しかし、すべてが2014年に変更しました。アレックスとマシューD. Zeilerネットワークとロブ・ファーガス開発ネットワーク - - 科学者は2つのネットワークの最高が決定した彼らは、異なる領域を比較したと反応するであろう。猿の脳は、また、オブジェクトの数を特定するために教示されています。これらの項目は、動物の世界から来たので、サルは混乱しないでください。

応答は明らかに存在サルから得ることができないので、各ニューロンの応答を測定することを特徴と、このように直接電極を移植しました。これは、通常の状況下では、脳細胞が最も先進的なモデル、すなわちマシューZeilerネットワークと反応することが判明しました。

ただし、表示オブジェクトの速度として、画像中のノイズやオブジェクトの数を増やすために、認識率と品質私たちの脳のと霊長類の脳が大幅に削減されます。最も簡単な畳み込みニューラルネットワークは、より良いオブジェクトを識別することができます。言い換えれば、私たちの脳よりも優れ公式ニューラルネットワークが動作します。

AlexNet Zeilerネットワーク学習の深さの認識に画期的に加えて、そのようなDeepFace、DeepIDシリーズシステム、VGGFaceとfaceネットなどの他のマイルストーンシステムがあります。あなたはより良いどのように生成されるか、顔認識と深い学習理解したい場合は、その歴史を理解することが必要です。

DeepFaceは、Facebook上で基づいて、2014年に作成された顔認識システムの深さ畳み込みニューラルネットワークの研究グループです。これは、人間の顔のデジタル画像を識別する。精度は、大きな前進顔認識を使用する学習の深さで97%でした。
DeepIDまたは「深い隠されたアイデンティティの機能」とは、第1李サンらによって記載されたシステム(例えばDeepID、DeepID2等)、一連のです。彼らは、「深い万クラス表現の顔の予測を学習。」、2014年の論文に資格を与えられる彼らのシステムが最初のコントラスト損失によって訓練されるように、その後の出版物の拡大にもかかわらず、非常によく似たDeepFaceとして記述します同定および確認作業をサポートしています。
Omkar Parkhiらによって開発されたVGGFace(より良い名前の不足)。オックスフォード大学(VGG)から視覚ジオメトリグループと題した2015年の紙の「深い認識」に記載されています。より良いモデルを調整するために、また、彼らの焦点は、彼らが標準的なデータセットの中で最も先進的なを得ることができるように、トレーニングデータの非常に大きなセットを収集し、顔認識のための非常に深いCNNモデルを訓練するためにそれを使用する方法であります結果。
faceネットは、Googleの研究者は、2015年に顔認識ベンチマークデータセットのシリーズの中で最も先進的な実績をあげた顔認識システムを開発しています。複数のサードパーティ製のオープンソース実装のモデルと事前研修モデルの利用可能なので、faceネットシステムが広く使用することができます

おすすめ

転載: blog.51cto.com/14451358/2426909