马尔可夫决策过程详解

马尔可夫决策过程详解马尔可夫是安德烈·马尔科夫,​​他是著名的俄罗斯数学家,以其在随机过程中的工作而闻名。“马尔可夫”通常意味着在当前状态下,未来和过去是独立的。

欢迎大家来到IT世界,在知识的湖畔探索吧!

马尔可夫决策过程详解

关于马尔可夫决策过程的马尔可夫是什么?

马尔可夫是安德烈·马尔科夫(Andrey Markov),​​他是著名的俄罗斯数学家,以其在随机过程中的工作而闻名。

马尔可夫决策过程详解

“马尔可夫”通常意味着在当前状态下,未来和过去是独立的。

建立Markovian系统的关键思想是无记忆。无记忆是系统历史不会影响当前状态的想法。用概率表示法,无记忆性转化为这种情况。考虑一系列动作产生的轨迹,我们正在寻找当前动作将带给我们的位置。长的条件概率可能看起来像:

马尔可夫决策过程详解

现在如果系统是Markovian,则历史将全部包含在当前状态中。因此,我们的第一步分配要简单得多。

马尔可夫决策过程详解

这一步是改变计算效率的规则。马尔可夫性质是所有现代强化学习算法的存在和成功的基础。

马尔可夫决策过程(MDP)

MDP由以下定义:

  • 状态集$s\in S。状态是代理程序所有可能的位置。在下面的示例中,它是机器人位置。
  • 一组动作$a\in A$。动作是代理可以采取的所有可能动作的集合。在下面的示例中,这些动作的下方是{北,东,南,西}。
  • 转换函数T(s,a,s’)。T(s,a,s’)保持MDP的不确定性。给定当前位置和给定动作,T决定下一个状态出现的频率。在下面的示例中,转换函数可能是下一个状态在80%的时间内处于目前动作方向,而在其他20%的情况下偏离了90度。在下面的示例中,机器人选择了北,但每个机器人有10%的机会向东或向西移动。
  • 奖励函数R(s,a,s’)。最大化报酬总额是任何代理的目标。此函数说明每个步骤可获得多少奖励。通常,为鼓励快速解决方案,每个步骤都会有少量的负奖励(成本),而在最终状态下会有较大的正面(成功的任务)或负面(失败的任务)奖励。例如下面的宝石和火坑。
  • 开始状态s0,也许是结束状态。
马尔可夫决策过程详解

这给了我们什么?

这个定义给我们提供了一个有限的世界,我们建立了前进的模型。我们知道每个转换的确切概率,以及每个动作的效果。最终,该模型是一种方案,我们将在知道自己的操作可能会出现错误的情况下计划如何采取行动。

如果机器人就在火坑旁边,机器人是否应该总是选择北方,但是北方有可能把它送到东边掉入火坑?

不,最佳策略是西方。因为最终进入墙壁将(有20%的机会)向北移动,并使机器人驶向目标。

策略规定

学习如何在未知环境中行动是了解环境的最终目标。在MDP中,这称为策略。

策略是一项函数,可让你根据状态执行操作。π*:S→A.

制定策略的方法很多,但是核心思想是值和策略迭代。这两种方法都可以迭代地为状态(可能是动作)的总效用建立估算。

状态的效用是(折后)奖励的总和。

一旦每个状态都具有效用,那么高层的规划和策略制定就会遵循最大效用的路线。

在MDP和其他学习方法中,模型会添加折扣因子γ来优先考虑短期和长期奖励。折扣因素在直觉上是有道理的。通过将奖励的总和转换成几何级数,折扣因子也带来了巨大的计算收敛性。

马尔可夫决策过程详解

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://itzsg.com/66539.html

(0)

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们YX

mu99908888

在线咨询: 微信交谈

邮件:itzsgw@126.com

工作时间:时刻准备着!

关注微信