時差

時差

背景

時間差の学習はTD学習と呼ばれ、モンテカルロ、彼はまた、エピソードから学んだ、モデル自体を知っている必要はありませんが、それは完全なエピソードを知ることができません。
状態遷移モデルと報酬の場合は、不完全なトラックを学習、関数の値が最適解を得るために、ベーアマンの漸化式(ブートストラップ法)により得られます。
長所:リアルタイムのオンライン学習は、学習がトラックを完了することはできません。制御工学のためのより適切な。
異なる戦術を持つVS戦略
戦略に:政策戦略と評価サンプリング制御を生成するためには、同じポリシーです。
異なる戦略:政策評価と制御戦略を生成すると、異なるサンプリング戦略です。また、最も重要な理由は、上の最適化戦略を模索するための基本的な式に従うことであるとすることができる、誰かが古いポリシーの一部から学ぶことができる、あなたは2つの戦略のメリットを比較することができ、人間の経験や他の個々の経験から学ぶことが容易既存のポリシーを持っています。
ここに画像を挿入説明

サーザ

戦略との時差:
ここに画像を挿入説明

サーザ
Q(S)大きなテーブルに格納されている場合、大規模なデータの問題を解決するのには適していません。外交政策の時間差:

ここに画像を挿入説明
アルゴリズムはステップ;
ステップ1:初期化メソッドS、反復T、状態セットS、アクションセットA、すなわち、初期の数を入力します。
SからStep2.Choose A動作の現在の状態から選択される;
Step3.TakeアクションA、R&LT観察、S「新たな状態Sにおける現在のアクションの結果の状態」と、新たな報酬R<
ステップ4: Q S A Q S A + A [ R + γ max a Q ( S , a ) Q ( S , A ) ] ; 開始\ {アレイ} {1} {Q(S、A)\ LEFTARROW Q(S、A)+ \アルファ\左[R + \ガンマ\ S} ^ {\プライム(_ {} Q \左最大、A \右)-Q(S、A)}] \右。\端{アレイ} 更新費用関数;
ステップ5: S S S \ LEFTARROW S ^ {\プライム} 次の状態が新しい状態に再割り当て。

公開された15元の記事 ウォンの賞賛8 ビュー2831

おすすめ

転載: blog.csdn.net/zx_zhang01/article/details/103817428