深度预测模型在强化学习中的探索激励
需积分: 46 27 浏览量
更新于2024-08-09
收藏 1.12MB PDF 举报
"利用深度预测模型来激励探索-2018年度中国科技核心(统计源)期刊目录"
本文探讨了深度强化学习(DRL)中如何有效地激励代理的探索与利用。传统的深度强化学习方法通常采用贪婪-ε策略来平衡探索与利用,但这种方法在面对复杂的决策任务时显得不足。文章特别关注了在大规模状态空间中DRL任务的探索问题,指出常规的探索策略如汤普森采样、玻尔兹曼探索和贝叶斯探索奖励等在这些任务中效率较低。
Stadie等人提出了一种创新的解决方案,即利用深度预测模型来评估状态的新颖度,以此分配探索奖励。他们构建了一个自动编码器,将高维度输入状态转化为低维度特征表示,然后通过一个3层全连接网络的预测模型预测下一状态的特征。预测模型输出与编码状态特征之间的均方误差被用来衡量状态的新颖度。误差项越大,表示状态的新颖度越高,需要更多的探索奖励。这种新颖度函数被加入到奖励函数中,以鼓励策略去探索不熟悉的状态,从而提高学习速度和在复杂任务中的性能。
另一方面,Osband等人提出了引导型深度Q网络(bootstrapped DQN),通过使用多个并行的分流网络来随机化值函数,扩大对状态空间的探索范围。这种方法尤其适用于大规模状态空间的DRL问题,通过临时扩展探索范围,能够有效提升学习效果。
本文是深度强化学习的综述,涵盖了强化学习的基本概念以及如何通过深度学习提升其决策能力。研究还涉及了分层深度强化学习、多任务迁移深度强化学习、多智能体深度强化学习以及基于记忆与推理的深度强化学习等前沿方向。这些研究进一步推动了深度强化学习在各种任务中的应用,特别是在需要处理高维度输入和复杂决策的情境下。同时,也强调了深度强化学习在未来的发展趋势,尤其是在解决实际问题中的潜力。
2012-05-15 上传
236 浏览量
2021-12-03 上传
1154 浏览量
点击了解资源详情
点击了解资源详情
点击了解资源详情
点击了解资源详情
点击了解资源详情
MICDEL
- 粉丝: 35
- 资源: 3975
最新资源
- 掌握Jive for Android SDK:示例应用的使用指南
- Python中的贝叶斯建模与概率编程指南
- 自动化NBA球员统计分析与电子邮件报告工具
- 下载安卓购物经理带源代码完整项目
- 图片压缩包中的内容解密
- C++基础教程视频-数据类型与运算符详解
- 探索Java中的曼德布罗图形绘制
- VTK9.3.0 64位SDK包发布,图像处理开发利器
- 自导向运载平台的行业设计方案解读
- 自定义 Datadog 代理检查:Python 实现与应用
- 基于Python实现的商品推荐系统源码与项目说明
- PMing繁体版字体下载,设计师必备素材
- 软件工程餐厅项目存储库:Java语言实践
- 康佳LED55R6000U电视机固件升级指南
- Sublime Text状态栏插件:ShowOpenFiles功能详解
- 一站式部署thinksns社交系统,小白轻松上手