高度な深い学習 -読書ノート
- 画像処理
1.1移行のスタイル
Lは :絵図方法について説明特徴マップコンテンツの特徴を形成し、テクスチャ表現(テクスチャ表される)は
コンテンツとスタイルを比較検討する方法リットル:
画像検索1.2
Lコンテンツベースの画像検索:カラー画像、テクスチャカテゴリ画像に基づく情報検索
L個のハッシュベースのイメージ検索アーキテクチャ
Lの 画像特徴が表される:ハンドCNN細工ベースの機能の特長を→
L個の 学習コーディングハッシュ -メソッドのカテゴリ:(低次元表現に高次元)Bハッシュ利点コーディング概念コーディングハッシュ(メモリを低減し、速度を増加させる)2つのハッシュコード位相C(学習段階、...コーディング段階)
L ハッシュの深さは、教師あり学習をベース符号化:画像特徴抽出層 +層符号化ハッシュを学びます
L個の 顔マルチラベル画像検索ハッシュ符号化深さ教師あり学習:入力タプル、 CONV、FC層の研究画像符号化ハッシュのハッシュ、マルチレベルガイダンス機能におけるコントラストの喪失を符号化することにより生成された、特徴ベクトルを生成します意味論的類似性に対応するハミング距離
1.3タイトル生成
入力画像、映像出力のテキストの説明:Lは画像生成タイトルは何ですか
L個の 画像タイトル生成 -エンコーダ・デコーダの最も単純なバージョン:CNNから特徴を抽出するエンコーダ、RNNによって生成された復号化器ディスクリプション
Lの 生成ピクチャヘッダ -MS Captivatorを:生成→単語を検出文章再ランク文→
L個の 画像タイトル発生 -ベースの注意モデル:. CONV LSTMによってワードによって生成されたコンテキストを取得したBコンテキスト。
- 自然言語処理
2.1技術概要:
リットルの NLPの概要: NLP技術→NLPコアベースの技術→NLP +
用語ベクトルLのコンセプト:マシン理解シンボル媒体への自然言語
L個の 単語ベクトルの応用:計算類似性、ニューラルネットワーク、文章の入力として /文書表現
リットルの 単語ベクトルの学習モデル -ニューラルネットワーク言語モデル:あなたは、自然言語の文字列の確率を決定することができます
L個の ワードベクトル学習モデル -CBOWとスキップ粒:a.CBOWモデル:入力単語予測そのコンテキストとして一言:予測モデルの入力b.Skip粒ワードとして単独でコンテクストワード
リットルの 単語ベクトルの学習モデル -階層ソフトマックス:出力層の最適化戦略のための1、確率値出力層ハフマン木を計算します
L個の 単語ベクトルの学習モデル -負サンプリング法:陰性サンプルの確率を最小限に抑えながら、陽性サンプルの確率を最大にします
2.2センチメント分析
リットルのセンチメント分析と人工知能
リットルの 感情的な知識ベースの構築:感情分析技術システムは、感情分析の研究→→感情の分類モデルを適用しました
リットルの感情ベクトルの単語の意味:似た構文や単語の意味、ベクトル空間における単語の短い距離
リットルの感情語のベクトルの学習モデル:感情的な情報語ベクトルモデルの監督・指導などの文章の導入
リットルの 章レベル感情の分類モデル:分析と判断(用語文書全体のグローバルな感情極性 →文章→章)
L 文レベルの感情分類モデル:感情極性モノマー文分類決意(共通 CNN、RNN、Recursve-NN、 BERT)
L属性レベルの感情分類モデル:事記載の感情極性判定(きめ細かな感情分析)の属性、2種類の方法(示さセグメントは、全体として示されています)
2.3読み取り機
L :マシンで何が読むには代わりにAIの人間が自動的に情報を読み、彼らが質問Bは、そのような意味理解などの複雑な技術を含むNLP「王冠の宝石」の分野であり、答えなければなりません。
マシン上の課題を読んL難易度:セマンティック推理難しい、難しいセマンティック協会、困難意味表現
リットルの 機械可読データセット -MCTest
リットルの 機械読み取り可能なデータが設定 -CNN /デイリーメール
リットルの 機械読み取り可能なデータが設定 -SQuAD
L個の セットの機械可読データ -Quasar-T
リットルの 機械読み取り可能なモデル( BiDAF):質問と記事X Y、回答確率初めとして、記事内の各単語の出力と答えの終わりを入力します(双方向マシンのアテンション・フロー理解)
主な手順リットルの機械可読:テキスト表現、セマンティックマッチング、推論を理解し、勧告の結果
2.4 QA
lの 質問応答システムである何:。Aは、チューリングテストBの元の形態であると考えられているが、検索エンジンの次の世代の基本的な形です。
リットル質問応答システムに基づく知識のマッピング
リットル マッピング知識クイズに基づいて、3つの主要な問題(問題の表現、回答の意味表現間の関連、質問と回答):深学習法-
リットルの テキスト、知識表現の深さ: ...ベクトル化ベクトル化C bのワード文章(テキスト)知識(事実、提案)定量化へ
リットルの Qモデル知識ベースマップ:決定エンティティボディ →→エンティティは、回答候補の回答の質問を生成→→が表すスコアを計算表します
リットル質問応答システムに基づく推論:知ら知識によって推論は、未知の知識を取得します
L気配りリーダー:LSTMは、双方向のドキュメントとクエリをモデル化するために使用されました
- マルチモーダル融合
モード分類より3.1
マルチモーダルデータは何L:テキスト、音声、画像、ビデオ、または他のリソース・モデル構成メッセージを介して通信する手段。
シングルモードの情報しばしば不完全またはあいまいな、マルチモーダルデータとシングルモードマルチアングル補足データを形成するために、マルチモーダル感情分析は何L
L 伝統的なマルチモーダル融合:マルチモーダル融合学習者の複数の組み合わせにより、学習者は、それぞれ、テキスト、画像、音声および他の単一ビュー分類器として設定することができ、個々の学習は、前記分離します。個々の学習が可能 SVM、決定木、NNおよび他の学習アルゴリズム。
リットルの アンサンブルは、効果的などのような状況の下で学ん:個々の学習者がする必要があり、特定の精度との違いを持っている「良いと異なります」
L マルチモーダル感情分類学習深さに基づいて:二つのキーポイントに基づく融合をマルチモーダル分類モデル(どのように効果的に単一のモダリティ感情分類、感情分類単峰性の複数の方法の組み合わせ転移学習のアイデアを使用した結果)、B。トレーニング画像分類器
L :どのように融合前関節融合および融合B特徴抽出は、独立した特徴抽出処理で..プレ融合が異なる学習モダリティ・データ間の意味的関係を意味し、
L 符号器からの(何オートエンコーダは):.フィードフォワードニューラルネットワークでは前駆体である、目標は、データ削減または機能のための入力および出力一様Bはバックプロパゲーショントレーニング、教師なしモデルの使用を可能にすることです。エキス
L エンコーダ原理から:を含むエンコーダとデコーダ層コーデックのパフォーマンス良好コーデックのB c.AutoEncoderプロセスの複数の入力と出力の間の差の目的関数を最小化します。
L 自己エンコーディング疎概要:エンコーダ(スパースオートエンコーダ)から疎に制限利用可能なスパースオートエンコーダとオートエンコーダL1定期Bより便利な機能を研究するために、スパース中間制約として表現することができます。
3.2以上の検索モード
lは 、図アコースティック検索:マルチモーダルインデックスとは何ですか図に+例テキスト検索。
L二峰DBN
Lは、 エンコーダ(からに対応するエンコーダからのモードに対応する各エンコーダが学習を担う2つの単峰性の組成、によって:対応オートエンコーダ)
L エンコーダ(からモデルを横切って対応する対応モーダルクロスオートエンコーダ):左右の部分は、エンコーダからのクロスモダリティである、学習画像は、テキストモダリティと考え各モダリティを表します。
L エンコーダ(からフルモードに対応する対応フルオートエンコーダモーダル):対応する合成及びエンコーダからの対応するモードエンコーダから、単一モード入力および出力の再構成画像、及びテキストを、それぞれ、左右しました
リットルの良いマルチモーダルニューラルネットワークのどのような種類
3.3 NER
NERを混合リットルグラフィック
- アプリケーションと実践
4.1最適化
lの最適化はどのようなものです:
最適化リットルの深さの研究でのアプリケーション
リットルの問題と解決策
最適化手法の様々なタイプのリットル紹介
Lアプリケーションの比較
4.2パラメータ調整方法
Lパラメータ調整技術
リットルの グリッドサーチ(グリッド検索)
lの最適解
lは借りフィッティングとオーバーフィッティング
過剰適合-L予防します
Lアドバンストパラメータ調整
4.3カリキュラムの実践