機械学習に存在する問題から、インクリメンタル学習がどのような問題を解決できるか、インクリメンタル学習のカテゴリー、インクリメンタル学習の実装方法、インクリメンタル学習の評価指標と共通データセット、カテゴリーインクリメンタルの代表的な方法を紹介します。学習とコード ライブラリと参照リソースは、インクリメンタル ラーニングを使用して、画像分類、オブジェクト検出、セマンティック セグメンテーション、動作認識、オブジェクト再識別、および 3D ポイント クラウド処理の品質を向上させるのに役立つことを願っています。
1 現在の機械学習の問題点は何ですか?
画像ソース: https://speech.ee.ntu.edu.tw/~hylee/ml/ml2021-course-data/life_v2.pdf
現在、機械学習には次のような問題があります。
既存のドメイン情報にノイズとノイズ情報のないコンテンツが含まれている場合、モデルのパフォーマンスを向上させるにはどうすればよいでしょうか?
パラメーターを含むニューラル ネットワーク モデルは、タスク 1 を適切に実行できますが、タスク 2 は実行できません。人間と比べて、1つのタスクしか完了できません。つまり、パラメータを新しいタスクに適応させることはできません。タスク 1 とタスク 2 を同時に完了できるモデルを取得するにはどうすればよいですか?
画像分類のタスクでは、分類器を初めてトレーニングするときに、考えられるすべてのカテゴリのトレーニング サンプルを収集することは困難です. アプリケーションで新しいカテゴリに遭遇すると、カテゴリの増分トレーニングが必要になります. トレーニング方法?
オブジェクト検出モデルとセマンティック セグメンテーション モデルは、どのように背景情報を使用して、その後のカテゴリの増分学習に役立つ特徴表現をマイニングしますか?
2 増分学習はどのような問題を解決しますか?
新しいカテゴリまたはタスクを継続的に更新して学習するだけでなく、学習したカテゴリまたはタスクのパフォーマンスをより適切に維持することもできます。
継続的学習または漸進的学習は、ニューラル ネットワークが人間のような多数のさまざまなタスクを学習するのを支援し、負の相互干渉なしに、壊滅的な忘却の問題を解決しようとします。増分学習アルゴリズムの焦点は、以前のタスクで学習した知識を使用して新しいタスクをより適切に学習する方法ではなく、壊滅的な忘却の問題を解決することです。
画像ソース:部分ネットワーク共有を使用したディープ畳み込みニューラル ネットワークの増分学習 – arXiv Vanity
3 増分学習のカテゴリは何ですか?
次の表の分類層は、深層ニューラル ネットワークの最後の層を指し、特徴抽出器は、分類層を除く深層ニューラル ネットワークの最前層を指します。
タイプ |
原理 |
カテゴリ セット機能 |
忘却の構造 |
テスト段階の要件 |
データ増分 |
カテゴリ セットは変更されず、データはオンライン フォームで動的に増加します。 |
絶え間ない |
それか |
それか |
タスクの増分 |
異なるタスクは同じ特徴抽出器を共有し、タスクが学習されるたびに、モデルは出力分類レイヤーを追加する必要があります。 |
それぞれのタスク内に分類されたバリエーション。 |
特徴抽出器では、異なるタスクの分類レイヤーが互いに影響を与えないためです。 |
モデルは、現在のテスト サンプルのタスク番号を事前に把握し、タスクに対応する分類層で分類する必要があります。 |
カテゴリの増分 |
すべてのカテゴリは、より多くのカテゴリが学習されるにつれてカテゴリ ノードが増加する分類レイヤーを共有します。実際には多くの実用的なニーズがあります。 |
バリエーションは、学習したすべてのカテゴリに分類されます。 |
特徴抽出器と分類レイヤーの両方が忘却の影響を受けます。異なるカテゴリーは互いに影響し合うからです。 |
テスト サンプルのカテゴリを事前に指定しなくても、すべての既知のカテゴリを分類できます。 |
4 増分学習を達成する方法は何ですか?
2 つの異なる分類方法が導入されています。
画像ソース:
https://github.com/virginiakm1988/ML2022-Spring/blob/main/HW14/HW14.pdf
Li Hongyi 教授は、 https://speech.ee.ntu.edu.tw/~hylee/ml/ml2021-course-data/life_v2.pdfで次の 3 つのタイプを紹介しました。
- 選択的シナプス可塑性
- 追加のニューラル リソースの割り当て
- メモリーリプライ
選択的シナプス可塑性では、勾配法を使用して、特定のタスクにとって重要なパラメーターを見つけます。最初のタスクにほとんどまたはまったく影響を与えないパラメーターを変更することで、モデルは最初のタスクと 2 番目のタスクを同時に完了することができます。この方法は、主にモデルのパラメーターを変更するもので、パラメーターの正則化と呼ばれます。EWC、SI、MAS、LwF-MC、その他の方法など。パラメーター正則化法は、タスクの増分学習を解決するのに適しています。
追加のニューラル リソース割り当てにより、プログレッシブ ニューラル ネットワーク、PackNet、および CPG が導入されます。プログレッシブ ニューラル ネットワーク プログレッシブ ニューラル ネットワークは、事前にトレーニングされた多数のモデルを保持します。もちろん、その欠点は、タスクの数が増えると、パラメーターの数が爆発的に増えることです。PackNet は最初に大規模なネットワークをセットアップし、新しいタスクがあるときに大規模なネットワークの一部のみを使用します。このように、タスクの増加に伴ってパラメータの量が増加することはありません。プログレッシブ ニューラル ネットワークと PackNet の組み合わせは、新しいパラメーターを追加できるだけでなく、各タスクを完了するためのパラメーターを保持することもできます。
Memory Reply は、前のタスクの生成モデルを使用して偽のデータを生成することを指します。
画像ソース: Zhu Fei、Zhang Xuyao、Liu Chenglin. カテゴリの増分学習の研究の進捗状況とパフォーマンス評価[J]。
Zhu Fei 氏らは「カテゴリ増分学習の研究進捗と性能評価」という記事で、忘却を克服する技術的アイデアに基づいて、パラメータの正則化に基づく方法、知識の蒸留に基づく方法、データの再生に基づく方法、データの再生に基づく方法の 5 つの方法を紹介しました。機能の再生とネットワーク構造に基づいて、各方法の長所と短所がまとめられています。著者らは、一般的に使用されるデータセットに対する代表的な方法を実験で評価し、実験結果に基づいて既存のアルゴリズムのパフォーマンスを比較分析し、カテゴリ増分学習の研究動向も非常に参考になりました。詳細には触れません。
知識の蒸留に基づく方法は、与えられたデータに対する古いモデルと新しいモデルの出力の一貫性を維持しながら、新しいタスクを学習することです。つまり、「入出力」が変形せず、古い知識を忘れないようにします。これは、重要な機能、サンプルの関係、および補助データを維持することで実現できます。TPCIL、PODnet、DDE、GeoDL などのメソッド。
データの再生とは、モデルが新しいタスクを学習しているときに、古いタスクのカテゴリ データと新しいタスクのカテゴリ データでモデルを更新できることを意味し、実際のデータを再生し、生成されたデータを再生し、古い偏差と新しい偏差のキャリブレーション。他の方法など。
ほとんどのデータ再生ベースの方法では、知識の蒸留戦略を使用して、古いカテゴリの保存されたサンプルをより有効に活用します。iCaRL、BiC、UCIR、WA、その他の方法など。
機能の再生とは、モデルが新しいタスクを学習しているときに、古いタスクのサンプル機能と新しいタスクのサンプル機能を一緒に更新してモデルを更新できることを意味します。これは、実際の機能、カテゴリ プロトタイプ、および生成された機能。PASS、SSRE、Fusion メソッドなど。
ネットワーク構造ベースのアプローチは、増分学習中にネットワーク構造を動的に拡張します。AANets、DER、ReduNet メソッドなど。
5 評価指標と漸進的学習のための一般的に使用されるデータセット
画像ソース: Zhu Fei、Zhang Xuyao、Liu Chenglin. カテゴリの増分学習の研究の進捗状況とパフォーマンス評価[J]。
画像ソース: Zhu Fei、Zhang Xuyao、Liu Chenglin. カテゴリの増分学習の研究の進捗状況とパフォーマンス評価[J]。
増分学習の 6 つのカテゴリの典型的な方法とコード ベース
カテゴリ増分学習の目標は、動的でオープンな環境で既存の知識をより適切に維持することに基づいて、モデルが新しいカテゴリの知識を継続的に学習できるようにすることです。
iCaRL (Incremental Classifer and Representation Learning) は、クラス増分設定で分類器と特徴表現を同時に学習するための非常に基本的な方法です。大まかに言えば、iCaRL は、観測された各クラスの例のサンプル セットを保持しています。各クラスの模範セットは、そのクラスの最も代表的な情報を含むことを目的として、そのクラスのすべてのサンプルのサブセットです。新しいサンプルの分類は、サンプルのセットが最も類似しているクラスを選択することによって行われます。新しいクラスが現れると、iCaRL は既存/以前のクラスのサンプルのセットを削除しながら、この新しいクラスのサンプルのセットを作成します。このアプローチは、増分トレーニング、特徴表現の更新、および新しいクラスの模範セットの構築で構成されます。
PyCIL: A Python Toolbox for Class-Incremental Learning GitHub - GUN/PyCIL: PyCIL: A Python Toolbox for Class-Incremental Learning
、カテゴリのほぼすべての増分学習方法を実装するツールボックス。EWC 、iCaRL の古典的なアルゴリズムと、SSRE 、Coil 、FOSTER 、FeTRILなどの最新のインクリメンタル ラーニング メソッドを含みます。その他のライブラリについては、インクリメンタル ラーニング | コード付き論文を参照してください。
次の図は、増分学習のプロセスです
画像クレジット:知識の蒸留と増分学習 - Deepan Das
7 参照リソース
以下のリソースは参照用に提供されています。
- 台湾大学李洪義生涯学習プログラム
2021 - 機械生涯学習 (2) - 壊滅的な忘却_哔哩哔哩_bilibili
コースウェアhttps://speech.ee.ntu.edu.tw/~hylee/ml/ml2021-course-data/life_v2.pdf
- 最新レビュー | カテゴリ増分学習の研究進捗とパフォーマンス評価 全文リンクカテゴリ増分学習の研究進捗とパフォーマンス評価 Zhu Fei, Zhang Xuyao, Liu Chenglin. カテゴリ増分学習の研究進捗とパフォーマンス評価[J]. Acta Automatica Sinica, 2023, 49( 03):635-660.DOI:10.16383/j.aas.c220588.
- モデルに「生涯学習」を実現させる、ジョージア工科大学が提案するData-Freeの漸進的学習
- オープンソースのツールキット「Category Incremental Learning」の過去と現在をまとめた何千もの長い言葉
- 増分学習の論文とコードの要約: 増分学習 | コード付き論文
- Chen Zhiyuan, Liu Bing. Lifelong Machine Learning (原本の第 2 版) (Intelligent Science and Technology Series) (中国語版) (Kindle Locations 1381-1385). Kindle 版.
- https://deepandas11.github.io/deep-learning,/computer-vision,/detection,/incremental-learning/Incremental-Learning/
つまり、カテゴリ増分学習は、画像分類、オブジェクト検出、セマンティック セグメンテーション、行動認識、オブジェクト再識別、3D ポイント クラウド処理などに役立ちます。みんなでメッセージを残してください。一緒に話し合い、交換しましょう。