DQN-TP:车载服务的快速深度Q学习网络边云迁移策略
版权申诉
193 浏览量
更新于2024-09-07
收藏 1.42MB PDF 举报
"06 一种车载服务的快速深度Q学习网络边云迁移策略.pdf"
本文主要探讨了在智能网联交通系统中如何有效应对车载用户高速移动带来的数据迁移问题,以减少通信回传时延对边缘服务器实时计算服务的影响。作者提出了一种名为DQN-TP(快速深度Q学习网络边云迁移策略),该策略利用车辆运动轨迹信息,结合深度Q学习网络(DQN)进行智能决策,实现虚拟机或任务在边缘云之间的高效迁移。
首先,车载决策神经网络是这个策略的关键部分,它能够实时监测并获取当前接入的边缘服务器的网络状态以及通信时延信息。基于车辆的运动轨迹预测,该神经网络能做出迁移决策,即何时何地应迁移虚拟机或任务,以最小化延迟。同时,车载决策神经网络会将这些实时决策和环境信息发送到云端的经验回放池。
云端的经验回放池则扮演了训练和优化的角色。评估神经网络通过回放池中的历史信息进行学习,不断优化网络参数,定期更新车载决策神经网络的权重。这种离线学习与在线决策的结合,使得车载服务的迁移策略能动态适应变化的网络环境,持续提高性能。
仿真结果表明,DQN-TP策略相对于传统的虚拟机迁移算法和任务迁移算法,能在显著降低时延方面取得更好的效果。这验证了该方法的有效性,并且对于提升智能网联交通系统的效率和用户体验具有重要意义。
文章的关键词包括智能网联交通系统、虚拟机迁移、强化学习和深度Q学习网络,表明其研究内容涵盖了交通技术、云计算、人工智能等多个领域。文章的分类号TN929.52表明它属于通信与信息技术类别,而文献标识码A则表示这是一篇原创性的学术论文。最后,文章提供了DOI编号,便于读者进一步检索和引用该研究。
这篇论文提出了一种创新的车载服务边云迁移策略,通过深度Q学习网络优化了车载服务的迁移决策,以降低通信延迟,提升了智能网联交通系统的整体性能。
2021-08-18 上传
2021-08-18 上传
2021-07-16 上传
2021-10-10 上传
2021-04-03 上传
2021-08-18 上传
2021-08-18 上传
2021-08-10 上传
2021-09-25 上传
BigYijianfeihong
- 粉丝: 2
- 资源: 6287
最新资源
- Android圆角进度条控件的设计与应用
- mui框架实现带侧边栏的响应式布局
- Android仿知乎横线直线进度条实现教程
- SSM选课系统实现:Spring+SpringMVC+MyBatis源码剖析
- 使用JavaScript开发的流星待办事项应用
- Google Code Jam 2015竞赛回顾与Java编程实践
- Angular 2与NW.js集成:通过Webpack和Gulp构建环境详解
- OneDayTripPlanner:数字化城市旅游活动规划助手
- TinySTM 轻量级原子操作库的详细介绍与安装指南
- 模拟PHP序列化:JavaScript实现序列化与反序列化技术
- ***进销存系统全面功能介绍与开发指南
- 掌握Clojure命名空间的正确重新加载技巧
- 免费获取VMD模态分解Matlab源代码与案例数据
- BuglyEasyToUnity最新更新优化:简化Unity开发者接入流程
- Android学生俱乐部项目任务2解析与实践
- 掌握Elixir语言构建高效分布式网络爬虫