動的な機械学習

201912

【ml.nature] 191 209 / 下肢における自動検出異常が用いディープラーニングX線写真
自然の筋骨格系障害を検出するために、機械学習により論文を発表し、この論文では、事前トレーニングデータセットのサイズ、モデルアーキテクチャモデルのパフォーマンスを説明しこの影響。収集し、下肢X線の93455例を本体部の複数を含む開示されました。結果は、単一のCNNモデルは光シートの高さXに可変である身体の部分の様々な例外複数を識別することができることを示しています。

[cs.CV] 191208 /個別予測問題:の効果の評価データの順序をトレーニングに微調整CNNs formedicalイメージング

CheXNetの事前訓練を受けたDenseNetを細かいが、調整しているので、ランダムシードは、トレーニングデータのバッチではなく、初期化されたモデルの重みの順序に影響を与えます。私たちは、モデルの実行(meanln(Pmaxの/ Pminの)2.45、変動0.543の係数)間で同じレントゲン写真の予測では、サブstantial変動を発見しました。この個々の放射線画像レベル変動は完全に大規模なテストセットにAUCの変動に反映されませんでした。

【cs.LG】191210 / 連続Sparsificationで宝くじ当選

Frankle&Carbin(2019)は、典型的には、サイズのニューラルネットワークのために、より速く訓練小サブネットワークを検索し、元のものよりも優れた性能を得ることが可能である、推測から宝くじ仮説。提案されたアルゴリズムは、一貫して、このような転移学習などの問題への潜在的なアプリケーションを作成し、90から95パーセント以下より速く、より良い彼らはから抽出したoverparameterizedモデルよりも訓練のパラメータでサブネットワークを発見し、「勝利のチケット」、反復マグニチュード剪定を検索します。
Frankle&Carbin(2019)は、宝くじ仮説、通常より速く元サブネットワークよりも、これらのサブネットワークの小さなサブネットワークのトレーニング速度に見出すことができるニューラルネットワークの大きさ、及び結果として得られる高い性能を推測しました。アルゴリズム「宝くじに勝つ」ための提案検索は、剪定の反復大きさは90〜95%削減パラメータで見つけることができるので、転移学習のように、彼らの訓練より速くより速く、より良いそのパラメトリックモデルの抽出から、一貫してサブネットやその他の問題は、潜在的なアプリケーションを作成しました。我々は勝つチケットを「連続間引き、」A新しい検索アルゴリズムを提案し、このアルゴリズムは、トレーニング中にネットワークから削除パラメータを続けることができ、かつ、勾配ベースの方法(というよりも戦略の剪定に依存する)を使用することは、学ぶために構造サブネット。私たちは、経験的に速いスピードを検索提供することができ、私たちの方法は、作業順序、反復剪定技術の大きさよりも、同様にユニットとして電車や壁時計の時間帯に優れたパフォーマンスを見つけることができることを証明します。

[cs.LG] 191 205 / なぜべきで我々として組み合わせるとポストアウトオブDistributionの検出のためのトレーニングトレーニング方法?
文学のAレビュー:(アウト・オブ・分布)検出アルゴリズムOOD。OODニューラルネットワークアルゴリズムは、主にトレーニングデータセットの分布と異なるサンプル中で検出することができないという問題を解決するために使用されます。

【cs.LG】191123 / アウトオブ分布検出のための信頼制御を用いた外れ値の暴露

外れ値の暴露(OE)技術に基づいて、我々は、新たな損失関数を提案します

[cs.LG] 191205 / 楕円領域と安全な損失関数を経由して実証的リスク最小化のデータポイントをスクリーニング

私たちは、最適化の保証を失うことなく、経験的リスクの最小化で自動的に破棄されたデータサンプルに簡単なスクリーニングテストを設計します。私たちは、疎液で2つの目的を生産損失関数を導出します...

【cs.LG】181218 / 圧縮領域で圧縮放射線画像と分類胸部疾患に共同学習畳み込み表現

我々は、タスクの両方が共同で訓練を受けている間、autoenコーダを使用して画像の解像度を低下させると同時に、別のネットワークを使用して分類する学習aconvolutionalニューラルネットワーク(CNN)に基づく分類アプローチを導入します。このアルゴリズムは、復興と一緒に高解像度画像のforclassificationから基本的な表現を学ぶためのモデルを案内します。

【stat.ML】191205 /正規化確率モデリングと推論するためのフロー

[cs.osl] 191209 / ChainerRL:Aディープ強化学習ライブラリ

[cs.osl] 191205 / ニューラル接線:迅速かつ簡単に無限ニューラルネットワークPythonで

ニューラル接線はの研究できるように設計されたライブラリである無限の幅ニューラルネットワークをこれは、複雑かつ階層型ニューラルネットワークアーキテクチャを指定するための高レベルAPIを提供します。これらのネットワークは、通常どおりにまたはその無限の幅の上限に有限幅のいずれかで訓練を受けたと評価することができます。無限の幅ネットワークは、分析的に正確なベイズ推論を用いてまたは神経接線カーネルを介して、勾配降下を使用して訓練することができます。さらに、神経接線は、いずれかの関数空間や重量空間に広いが、有限のネットワークの勾配降下訓練のダイナミクスを研究するためのツールを提供します。
全ライブラリーは、すぐに実行されるCPU、GPU、またはTPUに。すべての計算は自動的にデバイスの数にほぼ線形スケーリングで複数のアクセラレータ上に分散することができます。ニューラル接線は、このHTTP URLで入手できます。また、付属のインタラクティブなコラボノートブックを提供しています。

[プログラミング] コードスタイル
[ブログ] 慎重にアプローチ事前に訓練を受けた深い学習モデル

おすすめ

転載: www.cnblogs.com/offduty/p/12048264.html