Actor-Critic原理与PPO算法推导,李宏毅课程PPT讲解
需积分: 31 182 浏览量
更新于2023-12-31
收藏 1.05MB PPTX 举报
Actor-Critic原理和PPO算法是强化学习中常用的算法之一。在这篇文章中,我们将详细介绍Actor-Critic原理和PPO算法的推导及其核心思想。
首先,让我们来了解一下Actor-Critic框架的工作原理。Actor-Critic算法中包含了两个部分,分别是Actor和Critic。Actor负责生成动作,而Critic则评估Actor生成的动作的好坏。
在这个框架中,环境(Env)会提供当前的状态,并根据Actor生成的动作给出奖励(Reward)。一个episode就是一场游戏的过程,我们的目标就是最大化获得的总奖励。
接下来,我们将介绍PPO算法的推导过程。在PPO算法中,当Actor的参数为θ时,某个动作a发生的概率为π(a|θ)。我们希望最大化这个期望值,即最大化E[π(a|θ)]。
然而,由于概率π(a|θ)是无法直接计算的,我们只能通过采样得到。假设在采样中,动作a出现的次数为N(a),总的奖励为R(a)。我们可以将N(a)视为(状态,动作)对的权重。
为了解决reward可能总是正的问题,我们需要引入一个baseline。如果某个action未被采样到,那么它出现的概率会下降。通过引入baseline可以解决这个问题。
除了引入baseline之外,我们还需要分配适当的credit,即给每个动作分配合适的权重。这是因为所有的动作可能对最终的总奖励有不同程度的贡献。
总结一下,Actor-Critic原理和PPO算法通过将强化学习问题分成Actor和Critic两个部分来解决。在PPO算法中,我们希望最大化Actor生成动作的期望值,但由于无法直接计算,需要通过采样得到。除此之外,我们还需要引入baseline来解决reward总是正的问题,并且需要分配适当的credit来给每个动作分配权重。
综上所述,Actor-Critic原理和PPO算法是强化学习中非常重要的算法,通过理解和应用这些算法,我们可以提高强化学习的效果。
2023-06-20 上传
2023-09-05 上传
2023-03-29 上传
2023-06-09 上传
2023-05-14 上传
2023-08-30 上传
AllesGute666
- 粉丝: 1
- 资源: 2
最新资源
- JDK 17 Linux版本压缩包解压与安装指南
- C++/Qt飞行模拟器教员控制台系统源码发布
- TensorFlow深度学习实践:CNN在MNIST数据集上的应用
- 鸿蒙驱动HCIA资料整理-培训教材与开发者指南
- 凯撒Java版SaaS OA协同办公软件v2.0特性解析
- AutoCAD二次开发中文指南下载 - C#编程深入解析
- C语言冒泡排序算法实现详解
- Pointofix截屏:轻松实现高效截图体验
- Matlab实现SVM数据分类与预测教程
- 基于JSP+SQL的网站流量统计管理系统设计与实现
- C语言实现删除字符中重复项的方法与技巧
- e-sqlcipher.dll动态链接库的作用与应用
- 浙江工业大学自考网站开发与继续教育官网模板设计
- STM32 103C8T6 OLED 显示程序实现指南
- 高效压缩技术:删除重复字符压缩包
- JSP+SQL智能交通管理系统:违章处理与交通效率提升