PyTorch强化学习——马尔科夫决策过程

持续创作,加速成长!这是我参与「掘金日新计划 · 6 月更文挑战」的第19天,点击查看活动详情

前言

在马尔可夫链的基础上实现的马尔科夫决策过程 (Markov Decision Process, MDP) 涉及智能体和决策过程。接下来,我们将实现马尔科夫决策过程并在最佳策略下计算值函数。

马尔可夫决策过程

除了一组可能的状态 S = s 0 , s 1 , . . . , s m S = {s_0,s_1,...,s_m} 外,马尔科夫决策过程还包括一组动作 A = a 0 , a 1 , . . . , a n A = {a_0, a1, ..., an} 、状态转移函数 T ( s , a , s ) T(s,a,s') 、奖励函数 R ( s ) R(s) 和折扣因子 γ \gamma 。状态转移函数 T ( s , a , s ) T(s, a, s') 表示从状态 s s 采取行动 a a 然后转移到状态 s s' 的概率。折扣因子 γ \gamma 用于权衡未来奖励和当前奖励之间的重要程度。

为了更好的理解马尔科夫决策,我们使用另外一个状态 s 2 ( c o d e ) s_2(code) 来扩展在《马尔科夫链》中介绍的 studysleep 过程,假设有两个可以选择的动作,分别为 a 0 ( w o r k ) a_0(work) a 1 s l a c k ) a_1slack) 3 × 2 × 3 3\times 2 \times 3 的转换矩阵 $T(s,a,s')如下:

T = { [ 0.8 0.1 0.1 0.1 0.6 0.3 ] [ 0.7 0.2 0.1 0.1 0.8 0.1 ] [ 0.6 0.2 0.2 0.1 0.4 0.5 ] T=\left\{ \begin{matrix} \begin{bmatrix} 0.8 & 0.1 & 0.1 \\ 0.1 & 0.6 & 0.3 \\ \end{bmatrix}\\ \begin{bmatrix} 0.7 & 0.2 & 0.1 \\ 0.1 & 0.8 & 0.1 \\ \end{bmatrix} \\ \begin{bmatrix} 0.6 & 0.2 & 0.2 \\ 0.1 & 0.4 & 0.5 \\ \end{bmatrix} \\ \end{matrix} \right.

例如,在状态 s 0 ( s t u d y ) s_0(study) 时采取动作 a 1 ( s l a c k ) a_1(slack) 时,有 60% 的概率将转换为状态 s 1 ( s l e e p ) s_1(sleep) ,有 30% 的概率将转换为状态 s 2 ( c o d e ) s_2(code) ,且有 10% 的概率继续 study。我们将三种状态的奖励函数定义为 [ + 1 , 0 , 1 ] [+1,0,-1] 。显然,在这种情况下,最佳策略是在每个时间步中选择动作 a 0 a_0 ,保持 study 状态,将折扣因子设为 0.5,在下一节中,我们将在最佳策略下计算状态值函数 (state-value function,也称为值函数或值)。

使用 PyTorch 实现 MDP

本节中,我们使用 PyTorch 实现 MDP

首先,导入所需库并定义过渡矩阵、奖励函数和折扣因子:

import torch
T = torch.tensor([[[0.8, 0.1, 0.1],
                   [0.1, 0.6, 0.3]],
                  [[0.7, 0.2, 0.1],
                   [0.1, 0.8, 0.1]],
                  [[0.6, 0.2, 0.2],
                   [0.1, 0.4, 0.5]]]
                 )
R = torch.tensor([1.0, 0, -1.0])
gamma = 0.5
复制代码

在此环境下,最佳策略是在所有情况下都选择操作 a 0 a_0

action = 0
复制代码

定义函数,使用逆矩阵法来计算最优策略的值函数 V V ,关于如何推导该值函数,我们将在下一节中介绍:

def cal_value_matrix_inversion(gamma, trans_matrix, rewards):
    inv = torch.inverse(torch.eye(rewards.shape[0]) - gamma * trans_matrix)
    V = torch.matmul(inv, rewards.reshape(-1, 1))
return V
复制代码

我们向函数提供所有变量,包括与动作 a 0 a_0 相关的转移概率:

trans_matrix = T[:, action]
V = cal_value_matrix_inversion(gamma, trans_matrix, R)
print("The value function under the optimal policy is:\n{}".format(V))
复制代码

运行程序可以得到以下输出结果:

The value function under the optimal policy is:
tensor([[ 1.6787],
        [ 0.6260],
        [-0.4820]])
复制代码

在这种简单的 study-sleep-code 过程中,最佳策略(即获得最高总奖励的策略)是在所有时间步中均选择动作 a 0 a_0 。但是,在大多数情况下,情况并非都是如此简单,在各个时间步中需要采取的动作也不一定相同,这通常取决于不同状态。因此,我们必须在实际应用中根据不同情况找到最优策略来解决马尔科夫决策过程。

一个策略的值函数可用与衡量在遵循该策略的情况下,智能体在每种状态下的好坏程度。值越大,状态越好。我们使用逆矩阵发计算最优策略的值 V V 。根据 Bellman 方程,步骤 t + 1 t + 1 的值与步骤 t t 的值之间的关系可以表示为:

V t + 1 = R + γ × T × V t V_{t+1}=R+\gamma\times T\times V_t

当值收敛时,意味着 V t + 1 = V t V_{t + 1} = V_t ,我们可以得出值 V V ,如下所示:

V = R + γ × T × V V = ( I γ × T ) 1 × R \begin{matrix} V=R+\gamma\times T\times V \\ V=(I-\gamma\times T)^{-1}\times R\\ \end{matrix}

其中, I I 是主对角线上值为 1 的单位矩阵。 使用逆矩阵法求解 MDP 的优势在于总是可以获得准确的解。但是缺点是它的可扩展性,由于我们需要计算 m × m m \times m 矩阵的逆矩阵(其中 m m 是可能的状态数),因此如果存在大量状态,则计算代价将变得很十分高昂。 我们可以尝试使用不同大小的折扣因子。当折扣因子为 0 时,表示我们只关心即时奖励:

gamma = 0
V = cal_value_matrix_inversion(gamma, trans_matrix, R)
print("The value function under the optimal policy is:\n{}".format(V))
复制代码

输出结果如下,可以看到其与奖励函数完全相同,这是因为我们仅考虑下一步动作中获得的奖励:

The value function under the optimal policy is:
tensor([[ 1.],
        [ 0.],
        [-1.]])
复制代码

当折扣因子增加到 1 时,表示长期奖励和即时奖励同等重要。接下来,我们查看当 γ = 0.99 \gamma = 0.99 时的值 V V

gamma = 0.99
V = cal_value_matrix_inversion(gamma, trans_matrix, R)
print("The value function under the optimal policy is:\n{}".format(V))
复制代码

输出结果如下所示:

The value function under the optimal policy is:
tensor([[65.8293],
        [64.7194],
        [63.4876]])
复制代码

猜你喜欢

转载自juejin.im/post/7109830263802167332