编写MADDPG代码,适用于有两个不同奖励函数的智能体,且它们的动作空间是离散的场景

时间: 2024-02-12 19:09:59 浏览: 28
以下是适用于有两个不同奖励函数的智能体,且它们的动作空间是离散的MADDPG代码示例: ```python import numpy as np import torch import torch.nn.functional as F from torch.optim import Adam from collections import deque import random # 定义Actor网络 class ActorNet(torch.nn.Module): def __init__(self, state_dim, action_dim, hidden_dim): super(ActorNet, self).__init__() self.fc1 = torch.nn.Linear(state_dim, hidden_dim) self.fc2 = torch.nn.Linear(hidden_dim, hidden_dim) self.fc3 = torch.nn.Linear(hidden_dim, action_dim) def forward(self, x): x = F.relu(self.fc1(x)) x = F.relu(self.fc2(x)) x = F.softmax(self.fc3(x), dim=1) return x # 定义Critic网络 class CriticNet(torch.nn.Module): def __init__(self, state_dim, action_dim, hidden_dim): super(CriticNet, self).__init__() self.fc1 = torch.nn.Linear(state_dim+action_dim, hidden_dim) self.fc2 = torch.nn.Linear(hidden_dim, hidden_dim) self.fc3 = torch.nn.Linear(hidden_dim, 1) def forward(self, state, action): x = torch.cat([state, action], dim=1) x = F.relu(self.fc1(x)) x = F.relu(self.fc2(x)) x = self.fc3(x) return x # 定义智能体 class MADDPG: def __init__(self, state_dim, action_dim, hidden_dim, lr): self.n_agents = 2 self.state_dim = state_dim self.action_dim = action_dim self.hidden_dim = hidden_dim self.lr = lr # 初始化Actor网络和Critic网络 self.actor_nets = [ActorNet(state_dim, action_dim, hidden_dim) for _ in range(self.n_agents)] self.critic_nets = [CriticNet(state_dim*self.n_agents, action_dim*self.n_agents, hidden_dim) for _ in range(self.n_agents)] self.target_actor_nets = [ActorNet(state_dim, action_dim, hidden_dim) for _ in range(self.n_agents)] self.target_critic_nets = [CriticNet(state_dim*self.n_agents, action_dim*self.n_agents, hidden_dim) for _ in range(self.n_agents)] # 初始化优化器 self.actor_optimizers = [Adam(actor_net.parameters(), lr=self.lr) for actor_net in self.actor_nets] self.critic_optimizers = [Adam(critic_net.parameters(), lr=self.lr) for critic_net in self.critic_nets] # 初始化经验池 self.memory = deque(maxlen=10000) # 初始化超参数 self.batch_size = 128 self.gamma = 0.95 self.tau = 0.01 # 选择动作 def select_action(self, state, agent_id): state = torch.FloatTensor(state).unsqueeze(0) action_probs = self.actor_nets[agent_id](state) action = np.random.choice(self.action_dim, p=action_probs.detach().numpy()[0]) return action # 添加经验 def add_experience(self, state, action, reward, next_state, done): self.memory.append((state, action, reward, next_state, done)) # 更新网络 def update(self): # 从经验池中获取样本 if len(self.memory) < self.batch_size: return batch = random.sample(self.memory, self.batch_size) states, actions, rewards, next_states, dones = zip(*batch) states = torch.FloatTensor(states) actions = torch.LongTensor(actions).view(self.batch_size, -1) rewards = torch.FloatTensor(rewards).view(self.batch_size, -1) next_states = torch.FloatTensor(next_states) dones = torch.FloatTensor(dones).view(self.batch_size, -1) # 计算每个智能体的目标值 target_actions = [] for i in range(self.n_agents): target_action_probs = self.target_actor_nets[i](next_states) target_action = torch.argmax(target_action_probs, dim=1, keepdim=True) target_actions.append(target_action) target_actions = torch.cat(target_actions, dim=1) target_qs = [] for i in range(self.n_agents): target_qs.append(self.target_critic_nets[i](next_states, target_actions)) target_qs = torch.cat(target_qs, dim=1) targets = rewards + self.gamma * target_qs * (1 - dones) # 更新Critic网络 for i in range(self.n_agents): self.critic_optimizers[i].zero_grad() q = self.critic_nets[i](states, actions) critic_loss = F.mse_loss(q, targets.detach()) critic_loss.backward() self.critic_optimizers[i].step() # 更新Actor网络 for i in range(self.n_agents): self.actor_optimizers[i].zero_grad() actions_probs = self.actor_nets[i](states) actions_probs = actions_probs.detach() actions_probs[:, actions[:, i]] = F.softmax(actions_probs[:, actions[:, i]], dim=1) q_values = self.critic_nets[i](states, actions_probs) actor_loss = -q_values.mean() actor_loss.backward() self.actor_optimizers[i].step() # 更新目标网络 for i in range(self.n_agents): for target_param, param in zip(self.target_actor_nets[i].parameters(), self.actor_nets[i].parameters()): target_param.data.copy_(self.tau * param.data + (1 - self.tau) * target_param.data) for target_param, param in zip(self.target_critic_nets[i].parameters(), self.critic_nets[i].parameters()): target_param.data.copy_(self.tau * param.data + (1 - self.tau) * target_param.data) ``` 在这个例子中,我们定义了两个Actor网络和两个Critic网络,每个智能体都有一个Actor和一个Critic。其中,Actor网络的输出是一个概率分布,用于确定智能体的行动;Critic网络的输出是估计的Q值,用于评估智能体的行动。在训练过程中,我们使用经验重放缓存器来存储智能体的经验,然后从缓存器中随机选择一批经验进行训练。在更新Critic网络时,我们使用均方误差作为损失函数;在更新Actor网络时,我们使用Critic网络的输出作为损失函数,并采用随机梯度下降法进行优化。为了避免过度拟合,我们使用了目标网络进行训练,即每个智能体都有一个目标Actor网络和一个目标Critic网络。在每次更新后,我们使用软更新法来更新目标网络的参数。

相关推荐

最新推荐

recommend-type

vue实现输入框的模糊查询的示例代码(节流函数的应用场景)

上一篇讲到了javascript的节流函数和防抖函数,那么我们在实际场合中该如何运用呢? 首先,我们来理解一下:节流函数首先是节流,就是节约流量、内存的损耗,旨在提升性能,在高频率频发的事件中才会用到,比如:...
recommend-type

python2练习题——编写函数,输入数字,判断是否是素数

(1)质数p的约数只有两个:1和p。 (2)初等数学基本定理:任一大于1的自然数,要么本身是质数,要么可以分解为几个质数之积,且这种分解是唯一的。 (3)质数的个数是无限的。 (4)质数的个数公式 是不减函数。 ...
recommend-type

简单了解为什么python函数后有多个括号

主要介绍了简单了解为什么python函数后有多个括号,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
recommend-type

C++实现两个有序数组的合并

主要为大家详细介绍了C++实现两个有序数组的合并,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
recommend-type

提供ecshop系统自编写两个关于操作日志的函数

那教你一个办法,自己写两个函数,一个是记录操作日志函数,一个是还原日志数据到产品表函数,主要只针对产品属性组的修改和产品相册图的修改(前提,本身我这套系统做了二次开发,增加了产品的审核和取消修改功能)...
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

实现实时数据湖架构:Kafka与Hive集成

![实现实时数据湖架构:Kafka与Hive集成](https://img-blog.csdnimg.cn/img_convert/10eb2e6972b3b6086286fc64c0b3ee41.jpeg) # 1. 实时数据湖架构概述** 实时数据湖是一种现代数据管理架构,它允许企业以低延迟的方式收集、存储和处理大量数据。与传统数据仓库不同,实时数据湖不依赖于预先定义的模式,而是采用灵活的架构,可以处理各种数据类型和格式。这种架构为企业提供了以下优势: - **实时洞察:**实时数据湖允许企业访问最新的数据,从而做出更明智的决策。 - **数据民主化:**实时数据湖使各种利益相关者都可
recommend-type

可见光定位LED及其供电硬件具体型号,广角镜头和探测器,实验设计具体流程步骤,

1. 可见光定位LED型号:一般可使用5mm或3mm的普通白色LED,也可以选择专门用于定位的LED,例如OSRAM公司的SFH 4715AS或Vishay公司的VLMU3500-385-120。 2. 供电硬件型号:可以使用常见的直流电源供电,也可以选择专门的LED驱动器,例如Meanwell公司的ELG-75-C或ELG-150-C系列。 3. 广角镜头和探测器型号:一般可采用广角透镜和CMOS摄像头或光电二极管探测器,例如Omron公司的B5W-LA或Murata公司的IRS-B210ST01。 4. 实验设计流程步骤: 1)确定实验目的和研究对象,例如车辆或机器人的定位和导航。
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。