RLAI读书笔记-第五章-Monte Carlo

Monte Carlo Methods
无模型的蒙特卡洛学习方法 Model free
idea:未知转移概率矩阵,未知state-value函数 == 通过模拟计算得到(有限的情节任务)
Monte Carlo使用模拟解决Markov Decision Process

5.1 MC Prediction
MC基于抽样数据计算结果
e.g.游戏类都适合:完全信息博弈游戏,像围棋、国际象棋。非完全信息博弈游戏:21点、麻将等等

在Episode中的模拟得到value
first-visit MC  
every-visit MC  在一个Episode中,Q(s,a)出现多次如何评估?(平稳性/非平稳性Reward)
平稳性:  均值  V(St) = average(Returns(St))
非平稳性: 1/k换成折扣因子α  Vk+1 = Vk + α*(Gk - Vk) α越大越重视眼前Reward  Gk当前的收获  Vk每次遇到S的平均价值

5.2 MC Estimation of action-value
5.3 MC Control
在episode之后,返回值用作政策评估,再通过遍历所有state进行政策改善

5.4 MC Control without Exploring Starts
如何获得充足的经验是无模型强化学习的核心所在
解决思路1:
探索的初始化 每个state都有可能作为初始状态

5.5 off-policy Prediction & important Sampling
一些概念性问题:
https://www.cnblogs.com/steven-yang/p/6507015.html

on-policy method - 评估和优化的策略和模拟的策略是同一个。
off-policy method - 评估和优化的策略和模拟的策略是不同的两个。有时候,模拟数据来源于其它处,比如:已有的数据,或者人工模拟等等。
target policy - 目标策略。off policy method中,需要优化的策略。
behavior policy - 行为策略。off policy method中,模拟数据来源的策略。

5.6 Incremental Implementation
5.7 off-policy MC Control
总结
Monte Carlo使用模拟解决Markov Decision Process
知乎 https://zhuanlan.zhihu.com/p/28107168
blackJack游戏:
给定玩家固定策略,比如只要手中两张牌之和大于20,就继续要牌。(得到庄家手中牌面,玩家手中牌面的table)
==> 求解此固定策略的优劣 =》计算此策略的avg value

on-policy 和 off-policy
https://zhuanlan.zhihu.com/p/25743759
off-policy保证充分的探索性 ==> 要求behaior policy覆盖target policy

重要性采样(important Sampling)
http://blog.sina.com.cn/s/blog_60b44d6a0101l45z.html

猜你喜欢

转载自blog.csdn.net/u014297722/article/details/82081911