per-maddpg代码

时间: 2023-12-29 10:02:30 浏览: 318
以下是基于PyTorch实现的Per-MADDPG算法的代码示例: ``` import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optim import numpy as np # Define the Actor network class Actor(nn.Module): def __init__(self, state_dim, action_dim, hidden_dims=[64, 64]): super(Actor, self).__init__() self.layers = nn.ModuleList() self.layers.append(nn.Linear(state_dim, hidden_dims[0])) for i in range(1, len(hidden_dims)): self.layers.append(nn.Linear(hidden_dims[i-1], hidden_dims[i])) self.layers.append(nn.Linear(hidden_dims[-1], action_dim)) def forward(self, state): x = state for layer in self.layers[:-1]: x = F.relu(layer(x)) x = torch.tanh(self.layers[-1](x)) return x # Define the Critic network class Critic(nn.Module): def __init__(self, state_dim, action_dim, hidden_dims=[64, 64]): super(Critic, self).__init__() self.layers = nn.ModuleList() self.layers.append(nn.Linear(state_dim + action_dim, hidden_dims[0])) for i in range(1, len(hidden_dims)): self.layers.append(nn.Linear(hidden_dims[i-1], hidden_dims[i])) self.layers.append(nn.Linear(hidden_dims[-1], 1)) def forward(self, state, action): x = torch.cat([state, action], dim=1) for layer in self.layers[:-1]: x = F.relu(layer(x)) x = self.layers[-1](x) return x # Define the Replay Buffer class ReplayBuffer: def __init__(self, max_size): self.max_size = max_size self.buffer = [] self.idx = 0 def add(self, state, action, reward, next_state, done): experience = (state, action, reward, next_state, done) if len(self.buffer) < self.max_size: self.buffer.append(experience) else: self.buffer[self.idx] = experience self.idx = (self.idx + 1) % self.max_size def sample(self, batch_size): samples = np.random.choice(len(self.buffer), batch_size, replace=False) states, actions, rewards, next_states, dones = zip(*[self.buffer[idx] for idx in samples]) return np.stack(states), np.stack(actions), \ np.stack(rewards), np.stack(next_states), \ np.stack(dones) # Define the Per-MADDPG agent class PerMADDPG: def __init__(self, state_dim, action_dim, num_agents, gamma=0.99, tau=0.01, lr_actor=0.001, lr_critic=0.001, buffer_size=int(1e6), batch_size=64, alpha=0.6, beta=0.4, eps=1e-5): self.state_dim = state_dim self.action_dim = action_dim self.num_agents = num_agents self.gamma = gamma self.tau = tau self.lr_actor = lr_actor self.lr_critic = lr_critic self.batch_size = batch_size self.alpha = alpha self.beta = beta self.eps = eps self.actors = [Actor(state_dim, action_dim) for _ in range(num_agents)] self.critics = [Critic(state_dim*num_agents, action_dim*num_agents) for _ in range(num_agents)] self.target_actors = [Actor(state_dim, action_dim) for _ in range(num_agents)] self.target_critics = [Critic(state_dim*num_agents, action_dim*num_agents) for _ in range(num_agents)] for i in range(num_agents): self.target_actors[i].load_state_dict(self.actors[i].state_dict()) self.target_critics[i].load_state_dict(self.critics[i].state_dict()) self.actor_optimizers = [optim.Adam(actor.parameters(), lr=lr_actor) for actor in self.actors] self.critic_optimizers = [optim.Adam(critic.parameters(), lr=lr_critic) for critic in self.critics] self.replay_buffer = ReplayBuffer(max_size=buffer_size) def act(self, states, noise=0.0): actions = [] for i in range(self.num_agents): state = torch.tensor(states[i], dtype=torch.float32) action = self.actors[i](state.unsqueeze(0)).squeeze(0).detach().numpy() action += noise * np.random.randn(self.action_dim) actions.append(np.clip(action, -1.0, 1.0)) return actions def update(self): # Sample a batch of experiences from the replay buffer states, actions, rewards, next_states, dones = self.replay_buffer.sample(self.batch_size) # Convert to PyTorch tensors states = torch.tensor(states, dtype=torch.float32) actions = torch.tensor(actions, dtype=torch.float32) rewards = torch.tensor(rewards, dtype=torch.float32).unsqueeze(1) next_states = torch.tensor(next_states, dtype=torch.float32) dones = torch.tensor(dones, dtype=torch.float32).unsqueeze(1) # Compute the TD error target_actions = [] for i in range(self.num_agents): target_actions.append(self.target_actors[i](next_states[:, i, :])) target_actions = torch.stack(target_actions, dim=1) target_q_values = [] for i in range(self.num_agents): target_q_values.append(self.target_critics[i](next_states.view(-1, self.state_dim*self.num_agents), target_actions.view(-1, self.action_dim*self.num_agents))) target_q_values = torch.stack(target_q_values, dim=1) target_q_values = rewards[:, :, None] + self.gamma * (1 - dones[:, :, None]) * target_q_values predicted_q_values = [] for i in range(self.num_agents): predicted_q_values.append(self.critics[i](states.view(-1, self.state_dim*self.num_agents), actions.view(-1, self.action_dim*self.num_agents))) predicted_q_values = torch.stack(predicted_q_values, dim=1) td_errors = target_q_values - predicted_q_values # Update the priorities in the replay buffer priorities = np.abs(td_errors.detach().numpy()) ** self.alpha + self.eps for i in range(self.batch_size): idx = self.replay_buffer.idx - self.batch_size + i self.replay_buffer.buffer[idx] = (states[i], actions[i], rewards[i], next_states[i], dones[i], priorities[i]) # Compute the importance-sampling weights weights = (self.replay_buffer.max_size * priorities) ** (-self.beta) weights /= np.max(weights) # Update the actor and critic networks for i in range(self.num_agents): # Sample a minibatch of experiences from the replay buffer idxs = np.random.randint(0, len(self.replay_buffer.buffer), size=self.batch_size) states_mb = [] actions_mb = [] weights_mb = [] td_errors_mb = [] for j in range(self.batch_size): state, action, reward, next_state, done, priority = self.replay_buffer.buffer[idxs[j]] states_mb.append(state) actions_mb.append(action) weights_mb.append(weights[idxs[j]]) td_errors_mb.append(td_errors[j, i].item()) # Convert to PyTorch tensors states_mb = torch.tensor(states_mb, dtype=torch.float32) actions_mb = torch.tensor(actions_mb, dtype=torch.float32) weights_mb = torch.tensor(weights_mb, dtype=torch.float32).unsqueeze(1) td_errors_mb = torch.tensor(td_errors_mb, dtype=torch.float32).unsqueeze(1) # Update the critic network self.critic_optimizers[i].zero_grad() predicted_q_values_mb = self.critics[i](states_mb.view(-1, self.state_dim*self.num_agents), actions_mb.view(-1, self.action_dim*self.num_agents)) critic_loss = torch.mean(weights_mb * (predicted_q_values_mb - target_q_values[:, i, None]).pow(2)) critic_loss.backward() self.critic_optimizers[i].step() # Update the actor network self.actor_optimizers[i].zero_grad() actor_loss = -torch.mean(weights_mb * td_errors_mb.detach() * self.actors[i](states_mb)) actor_loss.backward() self.actor_optimizers[i].step() # Update the target networks for target_param, param in zip(self.target_actors[i].parameters(), self.actors[i].parameters()): target_param.data.copy_(self.tau * param + (1 - self.tau) * target_param) for target_param, param in zip(self.target_critics[i].parameters(), self.critics[i].parameters()): target_param.data.copy_(self.tau * param + (1 - self.tau) * target_param) def save(self, filename): torch.save({ 'actor_params': [actor.state_dict() for actor in self.actors], 'critic_params': [critic.state_dict() for critic in self.critics] }, filename) def load(self, filename): checkpoint = torch.load(filename) for i in range(self.num_agents): self.actors[i].load_state_dict(checkpoint['actor_params'][i]) self.critics[i].load_state_dict(checkpoint['critic_params'][i]) self.target_actors[i].load_state_dict(checkpoint['actor_params'][i]) self.target_critics[i].load_state_dict(checkpoint['critic_params'][i]) ``` 在上述代码中,`Actor` 类定义了 Actor 网络,`Critic` 类定义了 Critic 网络,`ReplayBuffer` 类定义了经验回放缓存,`PerMADDPG` 类实现了 Per-MADDPG 算法。 在 `PerMADDPG` 类的 `__init__` 函数中,我们定义了模型的超参数,创建了 Actor 和 Critic 网络,以及目标网络和优化器,并初始化了经验回放缓存。 在 `act` 函数中,我们使用 Actor 网络生成动作,加入一定的高斯噪声。 在 `update` 函数中,首先从经验回放缓存中采样一批经验,计算 TD 误差,并更新缓存中的优先级。然后,计算重要性采样权重,并使用这些权重更新 Actor 和 Critic 网络。最后,更新目标网络。 最后,`save` 函数和 `load` 函数分别用于保存和加载模型的参数。
阅读全文

相关推荐

最新推荐

recommend-type

vue-cli3项目配置eslint代码规范的完整步骤

例如,`vue/max-attributes-per-line` 规则限制了单行 Vue 组件中属性的数量,而 `vue/name-property-casing` 要求 Vue 实例的 data 属性使用 PascalCase 命名。 你可以根据团队规范调整这些规则。每个规则的选项...
recommend-type

Winsock完成端口模型-Delphi代码

在这个Delphi代码示例中,我们将看到如何使用IOCP来实现一个简单的回显服务器,它监听TCP连接并在接收到客户端数据时将其回显。 首先,我们需要导入必要的单元,包括`SysUtils`,`WinSock2`以及自定义的`Mains`单元...
recommend-type

燃料电池汽车Cruise整车仿真模型(燃料电池电电混动整车仿真模型) 1.基于Cruise与MATLAB Simulink联合仿真完成整个模型搭建,策略为多点恒功率(多点功率跟随)式控制策略,策略模

燃料电池汽车Cruise整车仿真模型(燃料电池电电混动整车仿真模型)。 1.基于Cruise与MATLAB Simulink联合仿真完成整个模型搭建,策略为多点恒功率(多点功率跟随)式控制策略,策略模型具备燃料电池系统电堆控制,电机驱动,再生制动等功能,实现燃料电池车辆全部工作模式,基于项目开发,策略准确; 2.模型物超所值,Cruise模型与Simulink策略有不懂的随时交流; 注:请确定是否需要再买,这种技术类文件出一概不 ;附赠Cruise与Simulink联合仿真的方法心得体会(大概十几页)。
recommend-type

租赁合同编写指南及下载资源

资源摘要信息:《租赁合同》是用于明确出租方与承租方之间的权利和义务关系的法律文件。在实际操作中,一份详尽的租赁合同对于保障交易双方的权益至关重要。租赁合同应当包括但不限于以下要点: 1. 双方基本信息:租赁合同中应明确出租方(房东)和承租方(租客)的名称、地址、联系方式等基本信息。这对于日后可能出现的联系、通知或法律诉讼具有重要意义。 2. 房屋信息:合同中需要详细说明所租赁的房屋的具体信息,包括房屋的位置、面积、结构、用途、设备和家具清单等。这些信息有助于双方对租赁物有清晰的认识。 3. 租赁期限:合同应明确租赁开始和结束的日期,以及租期的长短。租赁期限的约定关系到租金的支付和合同的终止条件。 4. 租金和押金:租金条款应包括租金金额、支付周期、支付方式及押金的数额。同时,应明确规定逾期支付租金的处理方式,以及押金的退还条件和时间。 5. 维修与保养:在租赁期间,房屋的维护和保养责任应明确划分。通常情况下,房东负责房屋的结构和主要设施维修,而租客需负责日常维护及保持房屋的清洁。 6. 使用与限制:合同应规定承租方可以如何使用房屋以及可能的限制。例如,禁止非法用途、允许或禁止宠物、是否可以转租等。 7. 终止与续租:租赁合同应包括租赁关系的解除条件,如提前通知时间、违约责任等。同时,双方可以在合同中约定是否可以续租,以及续租的条件。 8. 解决争议的条款:合同中应明确解决可能出现的争议的途径,包括适用法律、管辖法院等,有助于日后纠纷的快速解决。 9. 其他可能需要的条款:根据具体情况,合同中可能还需要包括关于房屋保险、税费承担、合同变更等内容。 下载资源链接:【下载自www.glzy8.com管理资源吧】Rental contract.DOC 该资源为一份租赁合同模板,对需要进行房屋租赁的个人或机构提供了参考价值。通过对合同条款的详细列举和解释,该文档有助于用户了解和制定自己的租赁合同,从而在房屋租赁交易中更好地保护自己的权益。感兴趣的用户可以通过提供的链接下载文档以获得更深入的了解和实际操作指导。
recommend-type

【项目管理精英必备】:信息系统项目管理师教程习题深度解析(第四版官方教材全面攻略)

![信息系统项目管理师教程-第四版官方教材课后习题-word可编辑版](http://www.bjhengjia.net/fabu/ewebeditor/uploadfile/20201116152423446.png) # 摘要 信息系统项目管理是确保项目成功交付的关键活动,涉及一系列管理过程和知识领域。本文深入探讨了信息系统项目管理的各个方面,包括项目管理过程组、知识领域、实践案例、管理工具与技术,以及沟通和团队协作。通过分析不同的项目管理方法论(如瀑布、迭代、敏捷和混合模型),并结合具体案例,文章阐述了项目管理的最佳实践和策略。此外,本文还涵盖了项目管理中的沟通管理、团队协作的重要性,
recommend-type

最具代表性的改进过的UNet有哪些?

UNet是一种广泛用于图像分割任务的卷积神经网络结构,它的特点是结合了下采样(编码器部分)和上采样(解码器部分),能够保留细节并生成精确的边界。为了提高性能和适应特定领域的需求,研究者们对原始UNet做了许多改进,以下是几个最具代表性的变种: 1. **DeepLab**系列:由Google开发,通过引入空洞卷积(Atrous Convolution)、全局平均池化(Global Average Pooling)等技术,显著提升了分辨率并保持了特征的多样性。 2. **SegNet**:采用反向传播的方式生成全尺寸的预测图,通过上下采样过程实现了高效的像素级定位。 3. **U-Net+
recommend-type

惠普P1020Plus驱动下载:办公打印新选择

资源摘要信息: "最新惠普P1020Plus官方驱动" 1. 惠普 LaserJet P1020 Plus 激光打印机概述: 惠普 LaserJet P1020 Plus 是惠普公司针对家庭、个人办公以及小型办公室(SOHO)市场推出的一款激光打印机。这款打印机的设计注重小巧体积和便携操作,适合空间有限的工作环境。其紧凑的设计和高效率的打印性能使其成为小型企业或个人用户的理想选择。 2. 技术特点与性能: - 预热技术:惠普 LaserJet P1020 Plus 使用了0秒预热技术,能够极大减少打印第一张页面所需的等待时间,首页输出时间不到10秒。 - 打印速度:该打印机的打印速度为每分钟14页,适合处理中等规模的打印任务。 - 月打印负荷:月打印负荷高达5000页,保证了在高打印需求下依然能稳定工作。 - 标配硒鼓:标配的2000页打印硒鼓能够为用户提供较长的使用周期,减少了更换耗材的频率,节约了长期使用成本。 3. 系统兼容性: 驱动程序支持的操作系统包括 Windows Vista 64位版本。用户在使用前需要确保自己的操作系统版本与驱动程序兼容,以保证打印机的正常工作。 4. 市场表现: 惠普 LaserJet P1020 Plus 在上市之初便获得了市场的广泛认可,创下了百万销量的辉煌成绩,这在一定程度上证明了其可靠性和用户对其性能的满意。 5. 驱动程序文件信息: 压缩包内包含了适用于该打印机的官方驱动程序文件 "lj1018_1020_1022-HB-pnp-win64-sc.exe"。该文件是安装打印机驱动的执行程序,用户需要下载并运行该程序来安装驱动。 另一个文件 "jb51.net.txt" 从命名上来看可能是一个文本文件,通常这类文件包含了关于驱动程序的安装说明、版本信息或是版权信息等。由于具体内容未提供,无法确定确切的信息。 6. 使用场景: 由于惠普 LaserJet P1020 Plus 的打印速度和负荷能力,它适合那些需要快速、频繁打印文档的用户,例如行政助理、会计或小型法律事务所。它的紧凑设计也使得这款打印机非常适合在桌面上使用,从而不占用过多的办公空间。 7. 后续支持与维护: 用户在购买后可以通过惠普官方网站获取最新的打印机驱动更新以及技术支持。在安装新驱动之前,建议用户先卸载旧的驱动程序,以避免版本冲突或不必要的错误。 8. 其它注意事项: - 用户在使用打印机时应注意按照官方提供的维护说明定期进行清洁和保养,以确保打印质量和打印机的使用寿命。 - 如果在打印过程中遇到任何问题,应先检查打印机设置、驱动程序是否正确安装以及是否有足够的打印纸张和墨粉。 综上所述,惠普 LaserJet P1020 Plus 是一款性能可靠、易于使用的激光打印机,特别适合小型企业或个人用户。正确的安装和维护可以确保其稳定和高效的打印能力,满足日常办公需求。
recommend-type

数字电路实验技巧:10大策略,让你的实验效率倍增!

![数字电路实验技巧:10大策略,让你的实验效率倍增!](https://avatars.dzeninfra.ru/get-zen_doc/3964212/pub_5f76d5f2109e8f703cdee289_5f76f3c10d5f8951c997167a/scale_1200) # 摘要 本论文详细介绍了数字电路实验的基础理论、设备使用、设计原则、实践操作、调试与故障排除以及报告撰写与成果展示。首先探讨了数字电路实验所需的基本理论和实验设备的种类与使用技巧,包括测量和故障诊断方法。接着,深入分析了电路设计的原则,涵盖设计流程、逻辑简化、优化策略及实验方案的制定。在实践操作章节中,具体
recommend-type

altium designer布线

### Altium Designer 布线教程和技巧 #### 一、环境设置与准备 为了更高效地完成布线工作,前期的准备工作至关重要。确保原理图已经完全无误并编译成功[^2]。 #### 二、同步查看原理图与PCB布局 通过在原理图标题栏处右键点击并选择 "Split Vertical" 可实现原理图和PCB视图的同时展示,这有助于理解电路连接关系以及提高布线效率。 #### 三、自动布线器配置 Altium Designer内置有强大的自动布线功能。进入“Tools -> PCB Rules and Constraints Editor”,可以自定义诸如最小间距、过孔尺寸等参数来满足
recommend-type

Rust与OpenGL共同打造的迷宫游戏

资源摘要信息:"迷宫游戏开发指南" 在Rust和OpenGL环境下开发迷宫游戏涉及多个方面的知识点,包括编程语言Rust的基本语法和高级特性,OpenGL的图形编程原理以及游戏循环和资源管理等。以下详细说明了这些知识点: 1. Rust编程语言基础 Rust是一种系统编程语言,它提供了内存安全而无需垃圾回收器。Rust的目标是防止空指针解引用、缓冲区溢出等内存安全问题。迷宫游戏开发中,使用Rust可以高效利用系统资源并保证运行时的稳定性和性能。基础知识点包括但不限于: - 变量和可变性 - 数据类型:整型、浮点型、字符、布尔类型、元组、数组、切片等 - 控制流:if、循环(for, while)、模式匹配 - 函数和闭包 - 所有权、借用和生命周期 - 结构体、枚举和特征 - 模块和使用语句 - 错误处理:Result和Option枚举 - 异步编程:async和await 2. OpenGL图形编程基础 OpenGL(Open Graphics Library)是一个跨语言、跨平台的API,用于渲染2D和3D矢量图形。在Rust中,可以使用gl-rs或其他类似的库来创建OpenGL上下文,并进行渲染操作。迷宫游戏开发中,开发者需要掌握的知识点包括: - OpenGL上下文的创建和管理 - 着色器语言GLSL的基本语法 - 纹理映射、光源和材质处理 - 几何体的创建和管理(如顶点缓冲、索引缓冲等) - 渲染管线的各个阶段(顶点处理、裁剪、光栅化等) - 深度缓冲和模板缓冲的使用 - OpenGL状态机的理解和管理 3. 游戏开发循环 游戏开发循环是指游戏运行时不断循环进行的一系列步骤,通常包括输入处理、游戏状态更新和渲染。迷宫游戏开发中,游戏循环的设计与实现是至关重要的部分。涉及到的知识点包括: - 游戏状态机的设计 - 输入事件的监听和处理(如键盘、鼠标事件) - 游戏逻辑的更新(如玩家移动、碰撞检测、迷宫生成逻辑等) - 场景的渲染和重绘 - 游戏帧率的控制和时间管理 4. 资源管理 资源管理是指游戏中各类资源(如图像、音频、模型等)的加载、使用和释放。在Rust中,这通常涉及到文件读取、内存管理和生命周期控制。迷宫游戏开发中需要的知识点包括: - 文件系统的操作(如读取迷宫数据文件) - 内存管理策略(如资源的动态加载和卸载) - 图像和纹理的加载和使用 - 音频播放控制 - 资源释放时机的确定以避免内存泄漏 5. 迷宫游戏逻辑实现 迷宫游戏的逻辑实现是指游戏中迷宫的生成、玩家的引导和游戏的胜负判定等核心游戏机制。迷宫游戏逻辑实现中的关键知识点包括: - 迷宫生成算法(如深度优先搜索算法、Prim算法或Kruskal算法等) - 玩家和游戏对象的移动逻辑 - 路径寻找和导引逻辑(如A*算法) - 胜负判定和游戏重置逻辑 6. 使用Rust和OpenGL库 实际开发中,开发者会使用一些Rust库来简化OpenGL的调用和管理。相关的知识点包括: - cargo工具和Rust包管理 - 使用Rust的OpenGL绑定库(如gl-rs、glium等) - 管理依赖和构建项目的配置文件(Cargo.toml) - 使用第三方库来处理窗口创建和事件循环(如 glutin) 7. 调试和性能优化 在开发迷宫游戏的过程中,调试和性能优化是重要的环节,以确保游戏运行的流畅性和稳定性。相关的知识点包括: - 使用调试工具(如gdb、rr、Valgrind等)进行错误追踪和性能分析 - 代码的性能优化策略(如循环展开、内存对齐、缓存优化等) - 图形渲染的性能优化(如批处理渲染、优化状态切换、减少绘制调用等) - 使用诊断工具(如Rust的cargo-expand等)来查看代码展开和宏展开 综上所述,Rust和OpenGL迷宫游戏的开发涉及众多知识点,需要开发者具备扎实的编程基础、图形编程经验、游戏开发知识和系统性能优化能力。通过使用Rust的现代编程特性和OpenGL的强大图形处理能力,可以开发出运行高效且稳定的迷宫游戏。