Actor-Critic原理与PPO算法推导,李宏毅课程PPT讲解

需积分: 31 14 下载量 182 浏览量 更新于2023-12-31 收藏 1.05MB PPTX 举报
Actor-Critic原理和PPO算法是强化学习中常用的算法之一。在这篇文章中,我们将详细介绍Actor-Critic原理和PPO算法的推导及其核心思想。 首先,让我们来了解一下Actor-Critic框架的工作原理。Actor-Critic算法中包含了两个部分,分别是Actor和Critic。Actor负责生成动作,而Critic则评估Actor生成的动作的好坏。 在这个框架中,环境(Env)会提供当前的状态,并根据Actor生成的动作给出奖励(Reward)。一个episode就是一场游戏的过程,我们的目标就是最大化获得的总奖励。 接下来,我们将介绍PPO算法的推导过程。在PPO算法中,当Actor的参数为θ时,某个动作a发生的概率为π(a|θ)。我们希望最大化这个期望值,即最大化E[π(a|θ)]。 然而,由于概率π(a|θ)是无法直接计算的,我们只能通过采样得到。假设在采样中,动作a出现的次数为N(a),总的奖励为R(a)。我们可以将N(a)视为(状态,动作)对的权重。 为了解决reward可能总是正的问题,我们需要引入一个baseline。如果某个action未被采样到,那么它出现的概率会下降。通过引入baseline可以解决这个问题。 除了引入baseline之外,我们还需要分配适当的credit,即给每个动作分配合适的权重。这是因为所有的动作可能对最终的总奖励有不同程度的贡献。 总结一下,Actor-Critic原理和PPO算法通过将强化学习问题分成Actor和Critic两个部分来解决。在PPO算法中,我们希望最大化Actor生成动作的期望值,但由于无法直接计算,需要通过采样得到。除此之外,我们还需要引入baseline来解决reward总是正的问题,并且需要分配适当的credit来给每个动作分配权重。 综上所述,Actor-Critic原理和PPO算法是强化学习中非常重要的算法,通过理解和应用这些算法,我们可以提高强化学习的效果。