用語の機械学習、実質的に1.0

免責事項:この記事はブロガーオリジナル記事です、続くBY-SAのCC 4.0を著作権契約、複製、元のソースのリンクと、この文を添付してください。
このリンク: https://blog.csdn.net/qq_33189961/article/details/97642546

ディレクトリ

機械学習が定義されています

モデルとパターン

例示的なデータセット(サンプル特徴ベクトル)

次元

学習(訓練)

トレーニングサンプルとトレーニングセット

学習モデル(学習者)

テストとテストサンプル

前提条件と真実(真)

サンプルとマーク

マーキングスペース(出力空間)

分類および回帰

N型およびアンチ型(ネガ型)

クラスタリング

分類とクラスタリングの違い

教師あり学習と教師なし学習

一般化

独立同一分布

暗記学習

バージョンスペース

誘導の好み

オッカムの剃刀

いいえフリーランチ定理ません(NFL)


機械学習が定義されています

機械学習は機械学習の研究?それは、「経験」は、「データ」の形で存在する計算とコンピュータシステムにおけるシステム自体のメイ良好なパフォーマンスに経験を使用する方法に取り組ん意味し、そのような主題であるので、主な含有量は、約コンピュータ上のデータから、「モデル」(モデル)を持っているアルゴリズム、すなわち「学習アルゴリズム(学習。アルゴリズム)を学習アルゴリズムでは、我々はそれが利用可能な実験データを持っている、それはこれらのデータに基づくことができますモデルを生成するステップと、コンピュータサイエンスは、「アルゴリズム」についての知識の研究である場合には、新たな状況に直面して(例えば、カットスイカを見ていない)、このモデルは、その後、(このような良いメロンなど)適切な判断を私たちに提供します。同様に、機械学習の言うことができる「学習アルゴリズム」についての知識の研究です。

モデルとパターン

「モデル」は、高校の結果、またはグローバル結果(例えば、決定木)から得られたデータを参照し、「モード」とは、局所的にステー接合部(例えば、ルール)を指します。

例示的なデータセット(サンプル特徴ベクトル)

データの集まりである「データセット」

「例示的」はまた、データセット、すなわち、サンプル、特徴ベクトルと呼ばれ、各レコードには、イベントまたはオブジェクトの記述です。

//// さらに属性、属性値、属性値、サンプル空間(入力空間)ここで簡単な停止に関する、ブックスイカP2を参照してください

次元

すなわち、特徴ベクトルの属性の数

学習(訓練)

それは、高校のプロセスからモデルデータでした。

トレーニングサンプルとトレーニングセット

「トレーニングサンプル」その各サンプルのトレーニングデータ、すなわち、トレーニングサンプルのセットからなる「トレーニングセット」。

学習モデル(学習者)

学習アルゴリズムは、データに対して所定の学習アルゴリズムと異なる結果を生成するために、異なるパラメータ値、及び(又は)訓練データを用いて、通常のパラメータを設定する空間パラメータのインスタンスとみなすことができます。

テストとテストサンプル

学習されたモデルの後、親行予測プロセスを使用することは、「テスト」と呼ばれる(テスト)「試験試料」(テストと呼ばれ、予測されるサンプル。サンプル)例えば、Fでは学ぶ  、テストケースのXの後に  得られた予測タグ= Y  F(X)。

前提条件と真実(真)

「仮説」のデータに関する特定の法律の電位に対応するモデルを学ぶ。「真実」この潜在的な法則そのもの。学習プロセスが真実か、近似値を見つけることであること。

サンプルとマーク

である「タグ」は、そのようなスイカなどのサンプルの結果に関する情報が良いか悪いか判断がある場合は、「良いメロンは、」マークです。タグ情報の例を持っている「サンプル」。

マーキングスペース(出力空間)

分類および回帰

である「分類」を予測するためには、このような「良いメロン」として、離散的な値である「悪いメロン」学習課題のこのタイプ。

「戻る」游は、スイカの成熟度0.95 0.37カテゴリ学習タスクのこの種のような連続値を予測しました。

N型およびアンチ型(ネガ型)

「バイナリ」(バイナリの2つだけのカテゴリ関係のCl sification)通常クラスであると呼ばれるミッション、「ポジティブ型」(ポジティブクラス)

「抗クラス」の別のクラス(ネガティブクラス)。

クラスタリング

「クラスタ」(クラスタ)として知られている複数のグループに今後のトレーニングセットサンプル。例えば、本サツマイモ「「外側ジャガイモにスイカ「光メロン」「も」」暗メロンにスイカで問題を識別で「クラスタリングでは、」このサツマイモ光色のメロン「のような概念は、」「私たちは事前に知っていない、と学習プロセスに使用されるトレーニングサンプルは、通常、タグ情報を持っていません。

分類とクラスタリングの違い

カテゴリー:サンプルラベルを与えられたいくつかの既知のクラス、マシンを学ぶための研修のいくつかの種類に応じて(すなわち、目的関数のいくつかの並べ替え)は、未知のカテゴリのサンプルを分類することを可能にします。これは、教師付き学習に属します。

クラスタリング:任意のサンプルを事前に知らなかったカテゴリラベルを参照するには、サンプルは、いくつかのアルゴリズム、クラスタリングによって、いくつかのクラスに分けられ、未知のクラスのグループを置くことを期待している、我々はクラスが何であるかを気にしない、我々は、実装する必要があります目標は、単に同様の事が教師なし学習に属する、一緒に来て置くことです。

教師あり学習と教師なし学習

教師付き学習:新しいデータの到着が、結果はこの機能に基づいて予測することができたときに、学習機能(モデルパラメータ)を定める与えられた学習データから。トレーニングセットの要件は、入力と出力が含ま学習監修、それは特性と目的を言うことができます。トレーニングセットの目標は、人々によってマークされています。教師付き学習は、最も一般的な分類(クラスタリング注意と区別)と回帰ニューラルネットワーク、決定木を訓練する一般的な手法です。

教師なし学習:入力データがマークされていない、また結果を決定します。サンプルデータ型は、未知であるサンプルセットのクラスタリング(クラスタリング)必要なサンプル間の類似性は、クラス間の間隙を最大にするために、クラス間のギャップを最小化しようとする方法。人気のポイントは、実際のアプリケーションであり、多くの場合は、元のサンプルのラベルからセットをサンプリングすることができますカテゴリを該当する訓練サンプルは、分類器の設計を学び始めるないないことを意味し、ラベルの事前のサンプルでは知ることができません。詳細に両者の差としてで見つけることができるhttps://blog.csdn.net/zb1165048017/article/details/48579677

一般化

新しいサンプルのためのモデルを学習する機能。

独立同一分布

それがされ、一般的に、未知の「ディストリビューション」の対象となるすべてのサンプルのサンプル空間と仮定(Distributionの)Dは、我々が得る各サンプルが得られ、この標本分布から独立している。一般的には、より多くの訓練サンプルが、我々はおよそ取得します詳細については、学習によって高い汎化能力を持つこのモデルを取得する可能性が高いです。

暗記学習

トレーニングサンプル、いわゆる「機械学習」「覚えておいてください」または「丸暗記学習を。」

バージョンスペース

私たちはしばしば「仮定の」訓練の一貫性のあるセットがあることを、仮説空間の多くを直面しますが、学習プロセスは、トレーニングセットの限定されたサンプルに基づいて行われ、そのため、トレーニングセットと一致し複数の仮説があるかもしれない本当の問題私たちは「宇宙のバージョン。」それを呼び出します

誘導の好み

好みのいくつかの種類のことを前提に学習過程における機械学習アルゴリズム。これは、状況の種類にもっと注意です。

オッカムの剃刀

すなわち、「観察と一致複数の仮説は、その後、最もシンプルを選択した場合。」スムーズな曲線Aは、一般的に選ば示しているので簡単に一貫した設定限られたトレーニングで、以下の2つの曲線があります。

いいえフリーランチ定理ません(NFL)

それはいくつかの問題にアルゴリズムBを学ぶよりも優れている場合、学習アルゴリズムAに対して、その後、島は比bよりも優れている問題の別のセットが存在しなければならない。興味深いことに、任意のアルゴリズムが設立されたこの結論。それはどんなに巧妙な学習アルゴリズム、B、より厄介な学習アルゴリズム、実際に彼らは同じ厳しい性能期待を持っていない!しかし、注意してください!NFL定理が重要な前提である:すべての「問題」が生じるか、すべての問題に同じ機会を等しく重要であるが、場合はそうではなかったです。

最も重要な意味NFL定理があるため考慮すべての潜在的な質問、トニーの、特定の問題、「何より良い学習アルゴリズム」無意味について漠然とした話から、私たちには明らかです。すべての学習アルゴリズムは、同じように良いです

 

 

おすすめ

転載: blog.csdn.net/qq_33189961/article/details/97642546