马尔可夫决策过程
甲Markov决策过程(MDP)是一个离散时间 的随机 控制过程。它提供了一个数学框架,用于在结果部分随机且部分受决策者控制的情况下对决策建模。MDP对于研究通过动态规划和强化学习解决的优化问题很有用。MDP至少早在1950年代就已为人所知。[1]马氏决策过程研究的核心是罗纳德·霍华德(Ronald Howard)在1960年出版的《动态规划和马氏过程》一书。。[2]它们用于许多学科,包括机器人技术,自动控制,经济学和制造。MDP的名称来自俄罗斯数学家Andrey Markov,因为它们是Markov链的扩展。
在每个时间步骤中,过程都处于某种状态 ,决策者可以选择任何行动 该状态可用 。该过程在下一时间步响应,随机进入新状态,并给予决策者相应的奖励 。
流程进入新状态的可能性 受所选动作的影响。具体来说,由状态转换函数给定。因此,下一个状态 取决于当前状态 以及决策者的行动 。但是给定 和 ,它有条件地独立于所有先前的状态和动作;换句话说,MDP的状态转换满足Markov属性。
马尔可夫决策过程是马尔可夫链的扩展; 区别在于增加了动作(允许选择)和奖励(给予动机)。相反,如果每个状态仅存在一个动作(例如“等待”)并且所有奖励都相同(例如“零”),则马尔可夫决策过程将简化为马尔可夫链。
定义
马尔可夫决策过程是一个4 元组 ,在哪里
- 是一组有限的状态,
- 是一组有限的动作(或者, 是状态可提供的有限操作集 ),
- 是行动的概率 处于状态 在时间 会导致状态 在时间 ,
- 是从状态转换后获得的立即奖励(或预期的立即奖励) 陈述 ,由于行动
(注意:马尔可夫决策过程的理论没有指出 要么 是有限的,但是下面的基本算法假定它们是有限的。)
问题
MDP的核心问题是为决策者找到“政策”:一种功能 指定动作 决策者在州内时会选择 。一旦以这种方式将马尔可夫决策过程与策略组合在一起,就可以固定每个状态的操作,并且所得到的组合的行为就像马尔可夫链一样(因为在状态中选择了操作 完全取决于 和 减少到 ,马尔可夫转换矩阵)。
目的是选择一项政策 这将最大化随机奖励的某些累积功能,通常是在潜在无限范围内的预期折扣总和:
- (我们在哪里选择 ,即政策规定的操作)。期望接管了
哪里 折扣因子是否令人满意 ,通常接近1。(例如, 一定的折扣率r。)
由于具有马尔可夫性质,因此可以将特定问题的最佳策略写为 如上所述。
折扣因素促使决策者倾向于尽早采取行动,而不是无限期地推迟采取行动。
演算法
MDP的解决方案是一种策略,它描述了MDP中每个状态的最佳操作,称为最佳策略。可以通过多种方法(例如动态编程)找到此最佳策略。
一些动态编程解决方案需要状态转换函数的知识 和奖励功能 。其他人可以仅通过实验来解决MDP的最佳策略。
考虑状态转换函数的情况 和奖励功能 给出了MDP,我们寻求最佳策略 最大化预期的折扣奖励。
计算此最佳策略的标准算法系列需要存储两个按状态索引的数组:值 ,其中包含实际价值和政策 ,其中包含动作。在算法的最后, 将包含解决方案和 遵循州的解决方案,将包含(平均)要获得的奖励折扣的总和 。
该算法有两个步骤,(1)值更新和(2)策略更新,对所有状态以某种顺序重复此步骤,直到没有进一步的更改发生为止。两者都使用较旧的估算值来递归更新最佳策略和状态值的新估算值。
它们的顺序取决于算法的变体。一个人也可以一次为所有州或每个州做这些事情,而且在某些州比其他州更常见。只要任何一个步骤都没有永久排除任何状态,该算法最终将得出正确的解决方案。[3]
显着的变体
价值迭代
在值迭代(Bellman 1957)中,也称为向后归纳法,功能未使用;相反, 在 每当需要它时。代入计算 进入计算 给出合并的步骤: []
哪里 是迭代次数。值迭代始于 和 作为价值函数的猜测。然后进行迭代,反复计算 对于所有州 , 直到 收敛于左侧等于右侧(这是该问题的“ Bellman方程 ” )。劳埃德·沙普利(Lloyd Shapley)在1953年发表的关于随机游戏的论文[4]作为一种特殊情况,包括了MDP的价值迭代方法,但是直到后来才意识到这一点。[5][]
策略迭代
在策略迭代中(Howard 1960),第一步执行一次,然后重复第二步,直到收敛为止。然后再次执行第一步,依此类推。
代替将第二步重复进行收敛,可以将其公式化并求解为一组线性方程。这些方程只是通过使在第二步方程式中。因此,将第二步重复进行收敛可以解释为通过松弛法(迭代法)求解线性方程[]
该变体的优点是存在明确的停止条件:当数组 如果在将步骤1应用于所有状态的过程中没有变化,则算法完成。
对于大量可能的状态,策略迭代通常比值迭代慢。
修改后的政策迭代
在修改的策略迭代中(van Nunen 1976;Puterman&Shin 1978),第一步执行一次,然后第二步重复几次。然后再次执行第一步,依此类推。
优先清扫
在此变体中,优先考虑将步骤应用到在某种程度上很重要的状态-无论是否基于算法( 要么 或基于使用情况(这些状态接近开始状态,或者使用该算法的人或程序可能感兴趣的状态)。
扩展和概括
马尔可夫决策过程是一个只有一名玩家的随机游戏。
部分可观察性
上面的解决方案假设状态为 知道何时采取行动;除此以外无法计算。如果此假设不成立,则该问题称为部分可观察的马尔可夫决策过程或POMDP。
Burnetas和Katehakis在“马尔可夫决策过程的最佳自适应策略”中提供了这一领域的重大进展。[6]在这项工作中,在有限的状态作用空间和过渡律的不可约性的假设下,构造了一类具有一致的最大收敛速度特性的自适应策略,该特性对于总的预期有限水平奖励具有统一性。这些政策规定,在每个状态和时间段内,对行动的选择应基于指数,该指数是估计的平均奖励最优性方程式右侧的通货膨胀。
强化学习
如果概率或奖励未知,那么问题就是强化学习之一。[7]
为此,定义进一步的功能非常有用,它对应于执行操作 然后最佳地继续运行(或根据当前的任何一项政策):
虽然此功能也是未知的,但是学习过程中的经验是基于 对(连同结果 ; 也就是说,“我当时处于状态 我试着做 和 发生”)。因此,一个数组 并利用经验直接对其进行更新。这就是所谓的Q学习。
强化学习可以解决马尔可夫决策过程,而无需明确指定过渡概率;价值和策略迭代中需要转移概率的值。在强化学习中,不是通过明确指定过渡概率,而是通过通常从统一随机初始状态重新启动多次的模拟器来访问过渡概率。强化学习也可以与函数逼近结合使用,以解决状态很多的问题。
学习自动机
MDP过程在机器学习理论中的另一种应用称为学习自动机。如果环境是随机的,这也是强化学习的一种。Narendra和Thathachar(1974)对第一份详细学习自动机论文进行了调查,最初将它们明确描述为有限状态自动机。[8]与强化学习类似,学习自动机算法还具有在概率或奖励未知的情况下解决问题的优点。学习自动机和Q学习之间的区别在于,前一种技术省略了Q值的存储,但是直接更新动作概率以找到学习结果。学习自动机是一种具有严格收敛性证明的学习方案。[9]
在学习自动机理论时,随机自动机包括:
- 一组X的可能的输入,
- 一组Φ= {Φ 1,...,Φ 小号 }可能的内部状态,
- 一组α= {α 1,...,α - [R }可能的输出,或动作,用- [R ≤ 小号,
- 的初始状态概率矢量p(0)=« p 1(0),...,p 小号(0)»,
- 一个可计算函数 甲其中每个时间步骤之后吨生成p(吨 从+ 1)p(吨),当前输入,与当前状态,并且
- 函数G:Φ→α,它在每个时间步生成输出。
这种自动机的状态对应于“离散状态离散参数马尔可夫过程 ”的状态。[10]在每个时间步吨 = 0,1,2,3,...,所述自动机读取从其环境的输入时,更新P(吨)至P(吨 + 1)由甲,随机选择一个的后继状态根据概率P(t + 1)并输出相应的动作。反过来,自动机的环境读取动作并将下一个输入发送到自动机。[9]
范畴理论解释
除奖励外,马尔可夫决策过程 可以用范畴理论来理解。即让表示具有生成集A的自由monoid。让DIST表示Kleisli类别中的Giry案单子。然后是一个函子对状态集S和概率函数P进行编码。
这样,可以将Markov决策过程从Monoid(具有一个对象的类别)推广到任意类别。一个人可以称之为结果一个依赖于上下文的Markov决策过程,因为从一个对象移动到另一个中 更改可用操作集和可能状态集。
模糊马尔可夫决策过程(FMDP)
在MDP中,最佳策略是使未来奖励的概率加权总和最大化的策略。因此,最优策略由几个动作组成,这些动作属于一组有限的动作。在模糊马尔可夫决策过程(FMDP)中,首先,将值函数计算为常规MDP(即,具有一组有限的动作);然后,通过模糊推理系统提取策略。换句话说,价值函数被用作模糊推理系统的输入,策略是模糊推理系统的输出。[11]
连续时间马尔可夫决策过程
在离散时间马尔可夫决策过程中,决策以离散时间间隔进行。但是,对于连续时间的马尔可夫决策过程,决策者可以随时选择做出决策。与离散时间马尔可夫决策过程相比,连续时间马尔可夫决策过程可以更好地对具有连续动力学的系统的决策过程建模,即系统动力学由偏微分方程(PDE)定义。
定义
为了讨论连续时间马尔可夫决策过程,我们引入两组符号:
如果状态空间和动作空间是有限的,
- :国家空间;
- :行动空间;
- : ,过渡速率函数;
- : ,奖励功能。
如果状态空间和动作空间是连续的,
- :状态空间;
- :可能的控制空间;
- : ,转换率函数;
- : 奖励率函数 ,在哪里 是我们在先前案例中讨论的奖励函数。
问题
像离散时间马尔可夫决策过程一样,在连续时间马尔可夫决策过程中,我们希望找到可以为我们提供最佳预期综合奖励的最优策略或控制:
哪里
线性规划公式
如果状态空间和动作空间是有限的,我们可以使用线性规划来找到最优策略,这是最早应用的方法之一。在这里,我们仅考虑遍历模型,这意味着在固定策略下,我们的连续时间MDP成为遍历的连续时间马尔可夫链。在这种假设下,尽管决策者可以在当前状态下随时做出决定,但他不能通过采取一项以上的行动而获得更多收益。最好只在系统从当前状态转换到另一状态时才采取措施。在某些情况下,(如果需要最优值函数,请参见连续时间马尔可夫决策过程的推论3.14 ) 独立于国家 ,我们将具有以下不等式:
如果存在功能 , 然后 将是最小的 满足上式 为了找到,我们可以使用以下线性编程模型:
- 原始线性程序(P-LP)
- 双线性程序(D-LP)
是D-LP的可行解决方案,如果 是非本机的,并且满足D-LP问题中的约束。可行的解决方案 如果满足以下条件,则DLP的最佳解决方案是
对于所有可行的解决方案 到D-LP。一旦找到最佳解决方案,我们可以使用它来建立最佳策略。
汉密尔顿–雅各比–贝尔曼方程
在连续时间的MDP中,如果状态空间和动作空间是连续的,则可以通过求解Hamilton–Jacobi–Bellman(HJB)偏微分方程来找到最佳准则。为了讨论HJB方程,我们需要重新构造问题
是终端奖励功能, 是系统状态向量, 是我们试图找到的系统控制向量。 显示状态向量如何随时间变化。汉密尔顿-雅各比-贝尔曼方程如下:
我们可以求解方程来找到最优控制 ,这可以给我们带来最佳价值
应用
连续时间马尔可夫决策过程在排队系统,流行过程和人口过程中都有应用。
替代符号
MDP的术语和符号尚未完全确定。主要有两大类:一类是针对诸如经济学之类的上下文中的最大化问题,使用术语“行动”,“奖励”,“价值”和“折现因子” 要么 ,而另一个则侧重于工程和导航方面的最小化问题,使用控制,成本,运输成本和折现系数这些术语[]。此外,转移概率的表示法也有所不同。
| 在这篇文章中 | 另类 | 评论 |
|---|---|---|
| 行动 | 控制 | |
| 奖励 | 成本 | 是负数 |
| 值 | 成本 | 是负数 |
| 政策 | 政策 | |
| 折现因子 | 折现因子 | |
| 转移概率 | 转移概率 |
此外,有时会写出转移概率 , 或很少
约束马尔可夫决策过程
约束马尔可夫决策过程(CMDP)是马尔可夫决策过程(MDP)的扩展。MDP和CMDP之间存在三个基本区别。[12]
CMDP有许多应用程序。最近,它已在机器人技术的运动计划场景中使用。[13]
也可以看看
笔记
- 贝尔曼1957
- 霍华德1960年。
- 强化学习:理论与Python实现。北京:中国机械出版社。2019年 44. ISBN 9787111631774。
- Shapley 1953年。
- 卡伦伯格2002。
- Burnetas和Katehakis 1997。
- 肖翰,Y .;权力,R。Grenager,T。(2003)。“多主体强化学习:关键调查” (PDF)。斯坦福大学技术报告:1-13 。检索2018-12-12。
- Narendra&Thathachar 1974年。
- ^ Narendra&Thathachar 1989年。
- Narendra&Thathachar 1974,第325页。
- 马赫迪(Mahdi)Fakoor;阿米尔雷萨Kosari;Jafarzadeh,Mohsen(2016)。“具有模糊马尔可夫决策过程的类人机器人路径规划”。应用研究与技术学报。14(5):300-310。doi:10.1016 / j.jart.2016.06.006。
- Altman,1999年。
- Feyzabadi和Carpin 2014年。
参考文献
- 奥特曼·埃坦(1999)。约束马尔可夫决策过程。7。CRC出版社。CS1 maint: ref=harv (link)
- 贝尔曼河(1957)。“马尔可夫决策过程”。力学学报。6。CS1 maint: ref=harv (link)
- Bellman。,RE(2003)[1957]。动态编程(Dover平装版)。新泽西州普林斯顿:普林斯顿大学出版社。书号 978-0-486-42809-3。CS1 maint: ref=harv (link)
- Bertsekas,D。(1995)。动态规划与最优控制。2。MA:雅典娜。CS1 maint: ref=harv (link)
- 伯内塔斯(AN);卡塔基基斯(MN)(1997)。“马尔可夫决策过程的最佳自适应策略”。运筹学数学。22(1):222。DOI:10.1287 / moor.22.1.222。CS1 maint: ref=harv (link)
- Derman,C.(1970年)。有限状态马尔可夫决策过程。学术出版社。CS1 maint: ref=harv (link)
- EA,Feinberg;A. Shwartz编辑。(2002)。马尔可夫决策过程手册。马萨诸塞州波士顿:克鲁维尔。书号 9781461508052。CS1 maint: ref=harv (link)
- 费扎巴迪,S。Carpin,S.(2014年8月18-22日)。“使用分层约束马尔可夫决策过程的风险感知路径规划”。自动化科学与工程(CASE)。IEEE国际会议。297,303页。CS1 maint: ref=harv (link)
- 郭旭 Hernández-Lerma,O.(2009年)。连续时间马尔可夫决策过程。随机建模和应用概率。施普林格。书号 9783642025464。CS1 maint: ref=harv (link)
- 罗纳德·A·霍华德(1960)。动态规划和马尔可夫过程 (PDF)。麻省理工学院出版社。CS1 maint: ref=harv (link)
- 卡伦伯格,洛德维克(2002)。“有限状态和动作MDP”。尤金A. 亚当·舒瓦茨(编辑)。马尔可夫决策过程手册:方法和应用。施普林格。书号 978-0-7923-7459-6。CS1 maint: ref=harv (link)
- Meyn,SP(2007)。复杂网络的控制技术。剑桥大学出版社。书号 978-0-521-88441-9。(原始内容存档于2010年6月19日)。CS1 maint: ref=harv (link)附录包含删节的“ Meyn&Tweedie”。(原始内容存档于2012年12月18日)。
- 堪萨斯州纳伦德拉 ; 马里兰州撒哈查(1974-07-01)。“学习自动机–调查”。IEEE系统,人与控制论交易。SMC-4(4):323–334。CiteSeerX 10.1.1.295.2280。doi:10.1109 / TSMC.1974.5408453。ISSN 0018-9472。CS1 maint: ref=harv (link)
- Narendra,Kumpati S .;Thathachar,Mandayam AL(1989)。学习自动机:简介。学徒大厅。书号 9780134855585。CS1 maint: ref=harv (link)
- 普特曼,ML;Shin,MC(1978)。“折扣马尔可夫决策问题的修改后的策略迭代算法”。管理科学。24(11):1127-1137。doi:10.1287 / mnsc.24.11.1127。CS1 maint: ref=harv (link)
- Puterman,ML(1994)。马尔可夫决策过程。威利。CS1 maint: ref=harv (link)
- 罗斯,SM(1983)。随机动态编程简介 (PDF)。学术出版社。CS1 maint: ref=harv (link)
- 沙普利·劳埃德(1953)。“随机游戏”。美利坚合众国国家科学院学报。39(10):1095–1100。Bibcode:1953PNAS ... 39.1095S。doi:10.1073 / pnas.39.10.1095。PMC 1063912。PMID 16589380。CS1 maint: ref=harv (link)
- RS,萨顿;Barto,AG(1998)。强化学习:简介。马萨诸塞州剑桥市:麻省理工学院出版社。CS1 maint: ref=harv (link)
- RS,萨顿;Barto,AG(2017)。强化学习:简介。马萨诸塞州剑桥市:麻省理工学院出版社。CS1 maint: ref=harv (link)
- Tijms。,HC(2003)。随机模型的第一门课程。威利。书号 9780470864289。CS1 maint: ref=harv (link)
- van Nunen,JAE E(1976)。“折扣马尔可夫决策问题的一组连续逼近方法。Z”。运筹学。20(5):203–208。doi:10.1007 / bf01920264。CS1 maint: ref=harv (link)
外部链接
- 用于MATLAB,GNU Octave,Scilab和R的MDP工具箱。马尔可夫决策过程(MDP)工具箱。
- 用于Matlab的MDP工具箱 –一个出色的教程和用于MDP的Matlab工具箱。
- 适用于Python的MDP工具箱用于解决MDP的软件包
- POMDPs.jl灵活的接口,用于使用各种求解器在Julia中定义和求解MDP
- 理查德·萨顿和安德鲁·巴托的《强化学习入门》
- SPUDD由Jesse Hoey下载的结构化MDP求解器
- 学习解决马尔可夫决策过程由Satinder P.辛格
- Burnetas和Katehakis(1997)提出的马尔可夫决策过程的最佳自适应策略。