深層生成学習に基づく中医電子カルテの自動診断

深層生成学習に基づく中医電子カルテの自動診断

伝統的な中国医学の自動 EHR 診断のための深層生成学習

  1. 教師なし深層学習モデルを使用して、特徴表現が学習されます。
  2. 教師あり学習モデルを使用して、DBN が学習されます。
  3. 2 つのデータセット: 1 つは医療専門家によってインデックス付けされたプレーン テキスト データセットです。もう 1 つは、本態性高血圧症の構造化データセットです。

まとめ

バックグラウンド


コンピュータ支援医療意思決定 (CAMDM)は、医療活動の意思決定手順をサポートする経験と証拠として大量の電子医療記録 (EMR) データを使用する方法です。病院情報システムや疾患監視システムなどの健全な情報インフラストラクチャは、CAMDM に豊富なデータを提供します。ただし、EMR データの複雑さと医学知識の抽象化により、従来のモデルを分析することはできません。この目的を達成するために、医療現場における情報分析と意思決定プロセスをシミュレートするために、Deep Belief Network (DBN) に基づく情報分析モデルが提案されています。このペーパーの目的は、CAMDM の効果的なソリューションとしてディープ ラーニング アーキテクチャを評価することです。

方法

この研究では 2 段階のモデルを採用しました。最初のステップでは、最適化された 7 層の深層信念ネットワーク (DBN) が、特徴表現を取得するためのモデル トレーニング用の教師なし学習アルゴリズムとして使用されます。2 番目のステップでは、サポート ベクター マシン モデルを採用して DBN の学習を監視します。実験では 2 つのデータセットが使用されます。1 つは、医療専門家によってインデックス付けされたプレーン テキスト データセットです。もう 1 つは、本態性高血圧症の構造化データセットです。データをランダムに分割して、教師なし学習用のトレーニング セットと教師あり学習用のテスト セットを生成します。モデルのパフォーマンスは、データセットの平均と分散、平均精度とカバレッジの統計によって評価されます。私たちのアプローチの優位性は、2 つの従来の浅いモデル (SVM/SVM とデシジョン ツリー/DT) を比較することによって実証されます。

結果

ディープ ラーニング (DBN+SVM) モデルの評価メトリクスは、両方のデータセットで単純な SVM および DT を上回っており、ディープ ラーニング モデルが依存関係を少なくして主要な特徴をより適切に捕捉できるという私たちの動機を裏付けています。

結論は

2 ステップの深層学習モデルは、医療情報の検索において従来の浅いモデルよりも優れたパフォーマンスを発揮します。テキストおよび EMR データの高度に構造化されたデータベースの特性を捕捉できます深層学習モデルは、サポート ベクター マシンや DT などの従来の浅い学習モデルよりも優れたパフォーマンスを発揮します。電子カルテシステムにおける情報検索に適した知識学習モデルです。したがって、深層学習は、CAMDM システムのパフォーマンスを向上させるための優れたソリューションを提供します。

方法

実験における深層学習モデルは、教師なし特徴学習と教師あり特徴学習の設計を組み合わせた2段階の手法を採用しています。データセットは最初に教師なし特徴学習を受けて、いくつかの潜在的な特徴表現を取得します。教師なし前処理の後、データはさらに特徴を分解するために 7 層 DBN モデルに渡されます。2 ステップ モデルと関連アルゴリズムの詳細は次のとおりです。

教師なし特徴学習

教師なし学習を実現するために、DBN [17] の最適化されたバージョンが学習モデルのコア アルゴリズムとして採用されます。深層学習モデルを生データ サンプルとして使用する教師なし概念抽出ツール。図 3 に示すように、DBN モデルはさまざまな隠れ層を備えたニューラル ネットワークとして見ることができます。多層ネットワーク モデルのトレーニングの難しさを克服するために、以前の研究 [23] で有効であることが証明されている階層トレーニング [17] に RBM を使用します。RBM の理論的基礎は、観測変数と潜在変数の間のボルツマン分布であり、ベイズ法 [24] を使用してボルツマン分布をガウス分布に一般化できます。

教師あり深層学習

教師なし学習プロセスを経た後、DBN ネットワークはトレーニングされ、さまざまな特徴表現を取得します。したがって、ネットワークパラメータは監視された方法で適切に調整されます。以前の教師なし特徴学習の結果としてパラメーターが改善されるため、特徴間に複数のレイヤーが存在するにもかかわらず、ネットワーク トレーニングはより速く収束します。最後に、隠れ層のエンコードされた特徴を受け取り、最終的な決定を真の結果または 1-of-K エンコードの形式で提示するために、最終出力層の分類器が必要です。この場合、SVM (サポート ベクター マシン) モデルを使用して、BP トレーニング プロセスへの入力として各クラスの確率を計算します。

おすすめ

転載: blog.csdn.net/weixin_44845357/article/details/120831194