适用于混合环境和离散动作空间的MADDPG代码

时间: 2024-02-13 13:06:47 浏览: 37
以下是适用于混合环境和离散动作空间的MADDPG代码示例: ```python import numpy as np import torch import torch.nn as nn import torch.optim as optim # 定义 Actor 和 Critic 网络 class Actor(nn.Module): def __init__(self, state_dim, action_dim, hidden_size): super(Actor, self).__init__() self.fc1 = nn.Linear(state_dim, hidden_size) self.fc2 = nn.Linear(hidden_size, hidden_size) self.fc3 = nn.Linear(hidden_size, action_dim) def forward(self, state): x = torch.relu(self.fc1(state)) x = torch.relu(self.fc2(x)) x = torch.tanh(self.fc3(x)) return x class Critic(nn.Module): def __init__(self, state_dim, action_dim, hidden_size): super(Critic, self).__init__() self.fc1 = nn.Linear(state_dim + action_dim, hidden_size) self.fc2 = nn.Linear(hidden_size, hidden_size) self.fc3 = nn.Linear(hidden_size, 1) def forward(self, state, action): x = torch.cat([state, action], dim=1) x = torch.relu(self.fc1(x)) x = torch.relu(self.fc2(x)) x = self.fc3(x) return x # 定义 MADDPG 类 class MADDPG: def __init__(self, state_dim, action_dim, hidden_size, discount_factor=0.99, tau=0.01, learning_rate=0.001): self.num_agents = len(state_dim) self.discount_factor = discount_factor self.tau = tau # 初始化 Actor 和 Critic 网络 self.actors = [Actor(state_dim[i], action_dim[i], hidden_size) for i in range(self.num_agents)] self.target_actors = [Actor(state_dim[i], action_dim[i], hidden_size) for i in range(self.num_agents)] self.critics = [Critic(sum(state_dim), sum(action_dim), hidden_size) for i in range(self.num_agents)] self.target_critics = [Critic(sum(state_dim), sum(action_dim), hidden_size) for i in range(self.num_agents)] # 初始化 Actor 和 Critic 优化器 self.actor_optimizers = [optim.Adam(actor.parameters(), lr=learning_rate) for actor in self.actors] self.critic_optimizers = [optim.Adam(critic.parameters(), lr=learning_rate) for critic in self.critics] # 将 target 网络参数设置为与本地网络相同 for i in range(self.num_agents): self.target_actors[i].load_state_dict(self.actors[i].state_dict()) self.target_critics[i].load_state_dict(self.critics[i].state_dict()) def get_actions(self, states, noise_scale=0.1): actions = [] for i in range(self.num_agents): state = torch.FloatTensor(states[i]).unsqueeze(0) action = self.actors[i](state).squeeze(0).detach().numpy() noise = noise_scale * np.random.randn(*action.shape) action = np.clip(action + noise, -1, 1) actions.append(action) return actions def update(self, states, actions, rewards, next_states, dones): states = [torch.FloatTensor(np.concatenate(states, axis=1))] actions = [torch.FloatTensor(np.concatenate(actions, axis=1))] rewards = [torch.FloatTensor(rewards)] next_states = [torch.FloatTensor(np.concatenate(next_states, axis=1))] dones = [torch.FloatTensor(dones)] # 更新 Critic 网络 target_actions = [] for i in range(self.num_agents): target_actions.append(self.target_actors[i](next_states[i]).detach()) target_actions = torch.cat(target_actions, dim=1) target_q_values = [] for i in range(self.num_agents): target_q_values.append(self.target_critics[i](next_states[0], target_actions).detach()) target_q_values = torch.cat(target_q_values, dim=1) target_q_values = rewards[0] + (self.discount_factor * target_q_values * (1 - dones[0])) q_values = [] for i in range(self.num_agents): q_values.append(self.critics[i](states[0], actions[0][:, sum(self.num_agents[:i]):sum(self.num_agents[:i+1])])) critic_losses = [] for i in range(self.num_agents): critic_losses.append(nn.functional.mse_loss(q_values[i], target_q_values[:, i:i+1])) for i in range(self.num_agents): self.critic_optimizers[i].zero_grad() critic_losses[i].backward() self.critic_optimizers[i].step() # 更新 Actor 网络 updated_actions = [] for i in range(self.num_agents): updated_actions.append(self.actors[i](states[0][:, sum(self.num_agents[:i]):sum(self.num_agents[:i+1])])) updated_actions = torch.cat(updated_actions, dim=1) actor_losses = [] for i in range(self.num_agents): actor_losses.append(-self.critics[i](states[0], updated_actions[:, sum(self.num_agents[:i]):sum(self.num_agents[:i+1])]).mean()) for i in range(self.num_agents): self.actor_optimizers[i].zero_grad() actor_losses[i].backward() self.actor_optimizers[i].step() # 更新 target 网络参数 for i in range(self.num_agents): for local_params, target_params in zip(self.actors[i].parameters(), self.target_actors[i].parameters()): target_params.data.copy_(self.tau * local_params.data + (1 - self.tau) * target_params.data) for local_params, target_params in zip(self.critics[i].parameters(), self.target_critics[i].parameters()): target_params.data.copy_(self.tau * local_params.data + (1 - self.tau) * target_params.data) ``` 其中,`state_dim` 是代理的状态空间维度的列表,`action_dim` 是代理的动作空间维度的列表,`hidden_size` 是 Actor 和 Critic 网络的隐藏层大小,`discount_factor` 是折扣因子,`tau` 是软更新参数,`learning_rate` 是 Actor 和 Critic 网络的学习率。`get_actions` 方法返回代理的动作,`update` 方法更新 Actor 和 Critic 网络参数。

相关推荐

最新推荐

recommend-type

离散数学手写笔记.pdf

西电计科离散数学手写笔记(笔者期末95+),内容较多较为详实,适合在期末复习的时候翻翻看看
recommend-type

极点配置 PID控制器的仿真实验和状态空间模型离散化

东北大学流程实验室改革课程现代控制系统课程作业之一,极点配置 PID控制器的仿真实验和状态空间模型离散化。
recommend-type

图像变换之傅里叶_离散余弦变换.ppt

该PPT介绍了图像变换领域中的两个基础的变换, 傅里叶变换和离散余弦变换. 涉及内容包括一维傅里叶变换, 二维离散傅里叶变换, 二维离散傅里叶变换的性质, 快速傅里叶变换, 傅里叶变换在图像处理中的应用; 离散余弦...
recommend-type

使用python实现离散时间傅里叶变换的方法

主要介绍了使用python实现离散时间傅里叶变换的方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
recommend-type

Python求离散序列导数的示例

今天小编就为大家分享一篇Python求离散序列导数的示例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

MATLAB柱状图在信号处理中的应用:可视化信号特征和频谱分析

![matlab画柱状图](https://img-blog.csdnimg.cn/3f32348f1c9c4481a6f5931993732f97.png) # 1. MATLAB柱状图概述** MATLAB柱状图是一种图形化工具,用于可视化数据中不同类别或组的分布情况。它通过绘制垂直条形来表示每个类别或组中的数据值。柱状图在信号处理中广泛用于可视化信号特征和进行频谱分析。 柱状图的优点在于其简单易懂,能够直观地展示数据分布。在信号处理中,柱状图可以帮助工程师识别信号中的模式、趋势和异常情况,从而为信号分析和处理提供有价值的见解。 # 2. 柱状图在信号处理中的应用 柱状图在信号处理
recommend-type

解释这行代码 c = ((double)rand() / RAND_MAX) * (a + b - fabs(a - b)) + fabs(a - b);

这行代码是用于生成 a 和 b 之间的随机数。首先,它使用 rand() 函数生成一个 [0,1) 之间的随机小数,然后将这个小数乘以 a、b 范围内的差值,再加上 a 和 b 中的较小值。这可以确保生成的随机数大于等于 a,小于等于 b,而且不会因为 a 和 b 之间的差距过大而导致难以生成足够多的随机数。最后,使用 fabs() 函数来确保计算结果是正数。
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。