编写MADDPG代码,适用于有两个不同奖励函数的智能体,且它们的动作空间是离散的场景

时间: 2024-02-12 17:09:59 浏览: 81
TXT

两个数相加c语言

以下是适用于有两个不同奖励函数的智能体,且它们的动作空间是离散的MADDPG代码示例: ```python import numpy as np import torch import torch.nn.functional as F from torch.optim import Adam from collections import deque import random # 定义Actor网络 class ActorNet(torch.nn.Module): def __init__(self, state_dim, action_dim, hidden_dim): super(ActorNet, self).__init__() self.fc1 = torch.nn.Linear(state_dim, hidden_dim) self.fc2 = torch.nn.Linear(hidden_dim, hidden_dim) self.fc3 = torch.nn.Linear(hidden_dim, action_dim) def forward(self, x): x = F.relu(self.fc1(x)) x = F.relu(self.fc2(x)) x = F.softmax(self.fc3(x), dim=1) return x # 定义Critic网络 class CriticNet(torch.nn.Module): def __init__(self, state_dim, action_dim, hidden_dim): super(CriticNet, self).__init__() self.fc1 = torch.nn.Linear(state_dim+action_dim, hidden_dim) self.fc2 = torch.nn.Linear(hidden_dim, hidden_dim) self.fc3 = torch.nn.Linear(hidden_dim, 1) def forward(self, state, action): x = torch.cat([state, action], dim=1) x = F.relu(self.fc1(x)) x = F.relu(self.fc2(x)) x = self.fc3(x) return x # 定义智能体 class MADDPG: def __init__(self, state_dim, action_dim, hidden_dim, lr): self.n_agents = 2 self.state_dim = state_dim self.action_dim = action_dim self.hidden_dim = hidden_dim self.lr = lr # 初始化Actor网络和Critic网络 self.actor_nets = [ActorNet(state_dim, action_dim, hidden_dim) for _ in range(self.n_agents)] self.critic_nets = [CriticNet(state_dim*self.n_agents, action_dim*self.n_agents, hidden_dim) for _ in range(self.n_agents)] self.target_actor_nets = [ActorNet(state_dim, action_dim, hidden_dim) for _ in range(self.n_agents)] self.target_critic_nets = [CriticNet(state_dim*self.n_agents, action_dim*self.n_agents, hidden_dim) for _ in range(self.n_agents)] # 初始化优化器 self.actor_optimizers = [Adam(actor_net.parameters(), lr=self.lr) for actor_net in self.actor_nets] self.critic_optimizers = [Adam(critic_net.parameters(), lr=self.lr) for critic_net in self.critic_nets] # 初始化经验池 self.memory = deque(maxlen=10000) # 初始化超参数 self.batch_size = 128 self.gamma = 0.95 self.tau = 0.01 # 选择动作 def select_action(self, state, agent_id): state = torch.FloatTensor(state).unsqueeze(0) action_probs = self.actor_nets[agent_id](state) action = np.random.choice(self.action_dim, p=action_probs.detach().numpy()[0]) return action # 添加经验 def add_experience(self, state, action, reward, next_state, done): self.memory.append((state, action, reward, next_state, done)) # 更新网络 def update(self): # 从经验池中获取样本 if len(self.memory) < self.batch_size: return batch = random.sample(self.memory, self.batch_size) states, actions, rewards, next_states, dones = zip(*batch) states = torch.FloatTensor(states) actions = torch.LongTensor(actions).view(self.batch_size, -1) rewards = torch.FloatTensor(rewards).view(self.batch_size, -1) next_states = torch.FloatTensor(next_states) dones = torch.FloatTensor(dones).view(self.batch_size, -1) # 计算每个智能体的目标值 target_actions = [] for i in range(self.n_agents): target_action_probs = self.target_actor_nets[i](next_states) target_action = torch.argmax(target_action_probs, dim=1, keepdim=True) target_actions.append(target_action) target_actions = torch.cat(target_actions, dim=1) target_qs = [] for i in range(self.n_agents): target_qs.append(self.target_critic_nets[i](next_states, target_actions)) target_qs = torch.cat(target_qs, dim=1) targets = rewards + self.gamma * target_qs * (1 - dones) # 更新Critic网络 for i in range(self.n_agents): self.critic_optimizers[i].zero_grad() q = self.critic_nets[i](states, actions) critic_loss = F.mse_loss(q, targets.detach()) critic_loss.backward() self.critic_optimizers[i].step() # 更新Actor网络 for i in range(self.n_agents): self.actor_optimizers[i].zero_grad() actions_probs = self.actor_nets[i](states) actions_probs = actions_probs.detach() actions_probs[:, actions[:, i]] = F.softmax(actions_probs[:, actions[:, i]], dim=1) q_values = self.critic_nets[i](states, actions_probs) actor_loss = -q_values.mean() actor_loss.backward() self.actor_optimizers[i].step() # 更新目标网络 for i in range(self.n_agents): for target_param, param in zip(self.target_actor_nets[i].parameters(), self.actor_nets[i].parameters()): target_param.data.copy_(self.tau * param.data + (1 - self.tau) * target_param.data) for target_param, param in zip(self.target_critic_nets[i].parameters(), self.critic_nets[i].parameters()): target_param.data.copy_(self.tau * param.data + (1 - self.tau) * target_param.data) ``` 在这个例子中,我们定义了两个Actor网络和两个Critic网络,每个智能体都有一个Actor和一个Critic。其中,Actor网络的输出是一个概率分布,用于确定智能体的行动;Critic网络的输出是估计的Q值,用于评估智能体的行动。在训练过程中,我们使用经验重放缓存器来存储智能体的经验,然后从缓存器中随机选择一批经验进行训练。在更新Critic网络时,我们使用均方误差作为损失函数;在更新Actor网络时,我们使用Critic网络的输出作为损失函数,并采用随机梯度下降法进行优化。为了避免过度拟合,我们使用了目标网络进行训练,即每个智能体都有一个目标Actor网络和一个目标Critic网络。在每次更新后,我们使用软更新法来更新目标网络的参数。
阅读全文

相关推荐

最新推荐

recommend-type

python2练习题——编写函数,输入数字,判断是否是素数

在Python编程语言中,编写一个函数来判断输入的数字是否为素数是一项常见的练习任务。素数,也称为质数,是指大于1的自然数,它只能被1和它自身整除,没有其他自然数能整除它。理解素数的性质对学习数论和密码学等...
recommend-type

JS中如何比较两个Json对象是否相等实例代码

在JavaScript中,比较两个JSON对象是否相等是一个常见的任务,特别是在进行数据验证或者测试时。在给定的实例中,提供了几种方法来实现这个功能。下面我们将深入探讨这些方法及其背后的逻辑。 首先,我们需要理解...
recommend-type

简单了解为什么python函数后有多个括号

在Python编程语言中,函数是第一类对象,这意味着它们可以被赋值给变量、作为参数传递给其他函数,以及作为其他函数的返回值。当我们看到一个函数调用后面跟着多个括号时,这通常表示函数返回了另一个函数,然后这个...
recommend-type

曾几何时IAR也开始支持函数智能提示了

IAR编程环境智能提示功能是指IAR从某个版本开始支持代码自动补全和参数提示功能,这个功能可以帮助开发者快速完成代码编写,提高开发效率。在本文中,我们将对IAR编程环境智能提示功能进行详细介绍,并提供详细的...
recommend-type

提供ecshop系统自编写两个关于操作日志的函数

本教程将介绍如何自编译两个关键函数,一个是`log_report()`,用于记录系统操作日志,另一个是还原日志数据到产品表的函数,主要用于处理产品属性组的修改和产品相册图的修改。 首先,我们来看`log_report()`函数。...
recommend-type

Angular实现MarcHayek简历展示应用教程

资源摘要信息:"MarcHayek-CV:我的简历的Angular应用" Angular 应用是一个基于Angular框架开发的前端应用程序。Angular是一个由谷歌(Google)维护和开发的开源前端框架,它使用TypeScript作为主要编程语言,并且是单页面应用程序(SPA)的优秀解决方案。该应用不仅展示了Marc Hayek的个人简历,而且还介绍了如何在本地环境中设置和配置该Angular项目。 知识点详细说明: 1. Angular 应用程序设置: - Angular 应用程序通常依赖于Node.js运行环境,因此首先需要全局安装Node.js包管理器npm。 - 在本案例中,通过npm安装了两个开发工具:bower和gulp。bower是一个前端包管理器,用于管理项目依赖,而gulp则是一个自动化构建工具,用于处理如压缩、编译、单元测试等任务。 2. 本地环境安装步骤: - 安装命令`npm install -g bower`和`npm install --global gulp`用来全局安装这两个工具。 - 使用git命令克隆远程仓库到本地服务器。支持使用SSH方式(`***:marc-hayek/MarcHayek-CV.git`)和HTTPS方式(需要替换为具体用户名,如`git clone ***`)。 3. 配置流程: - 在server文件夹中的config.json文件里,需要添加用户的电子邮件和密码,以便该应用能够通过内置的联系功能发送信息给Marc Hayek。 - 如果想要在本地服务器上运行该应用程序,则需要根据不同的环境配置(开发环境或生产环境)修改config.json文件中的“baseURL”选项。具体而言,开发环境下通常设置为“../build”,生产环境下设置为“../bin”。 4. 使用的技术栈: - JavaScript:虽然没有直接提到,但是由于Angular框架主要是用JavaScript来编写的,因此这是必须理解的核心技术之一。 - TypeScript:Angular使用TypeScript作为开发语言,它是JavaScript的一个超集,添加了静态类型检查等功能。 - Node.js和npm:用于运行JavaScript代码以及管理JavaScript项目的依赖。 - Git:版本控制系统,用于代码的版本管理及协作开发。 5. 关于项目结构: - 该应用的项目文件夹结构可能遵循Angular CLI的典型结构,包含了如下目录:app(存放应用组件)、assets(存放静态资源如图片、样式表等)、environments(存放环境配置文件)、server(存放服务器配置文件如上文的config.json)等。 6. 开发和构建流程: - 开发时,可能会使用Angular CLI来快速生成组件、服务等,并利用热重载等特性进行实时开发。 - 构建应用时,通过gulp等构建工具可以进行代码压缩、ES6转译、单元测试等自动化任务,以确保代码的质量和性能优化。 7. 部署: - 项目最终需要部署到服务器上,配置文件中的“baseURL”选项指明了服务器上的资源基础路径。 8. 关于Git仓库: - 压缩包子文件的名称为MarcHayek-CV-master,表明这是一个使用Git版本控制的仓库,且存在一个名为master的分支,这通常是项目的主分支。 以上知识点围绕Angular应用“MarcHayek-CV:我的简历”的创建、配置、开发、构建及部署流程进行了详细说明,涉及了前端开发中常见的工具、技术及工作流。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

深入剖析:内存溢出背后的原因、预防及应急策略(专家版)

![深入剖析:内存溢出背后的原因、预防及应急策略(专家版)](https://d8it4huxumps7.cloudfront.net/uploads/images/65e82a01a4196_dangling_pointer_in_c_2.jpg?d=2000x2000) 参考资源链接:[Net 内存溢出(System.OutOfMemoryException)的常见情况和处理方式总结](https://wenku.csdn.net/doc/6412b784be7fbd1778d4a95f?spm=1055.2635.3001.10343) # 1. 内存溢出的概念及影响 内存溢出,又称
recommend-type

Java中如何对年月日时分秒的日期字符串作如下处理:如何日期分钟介于两个相连的半点之间,就将分钟数调整为前半点

在Java中,你可以使用`java.time`包中的类来处理日期和时间,包括格式化和调整。下面是一个示例,展示了如何根据给定的日期字符串(假设格式为"yyyy-MM-dd HH:mm:ss")进行这样的处理: ```java import java.text.SimpleDateFormat; import java.time.LocalDateTime; import java.time.ZoneId; import java.time.ZonedDateTime; public class Main { public static void main(String[] args
recommend-type

Crossbow Spot最新更新 - 获取Chrome扩展新闻

资源摘要信息:"Crossbow Spot - Latest News Update-crx插件" 该信息是关于一款特定的Google Chrome浏览器扩展程序,名为"Crossbow Spot - Latest News Update"。此插件的目的是帮助用户第一时间获取最新的Crossbow Spot相关信息,它作为一个RSS阅读器,自动聚合并展示Crossbow Spot的最新新闻内容。 从描述中可以提取以下关键知识点: 1. 功能概述: - 扩展程序能让用户领先一步了解Crossbow Spot的最新消息,提供实时更新。 - 它支持自动更新功能,用户不必手动点击即可刷新获取最新资讯。 - 用户界面设计灵活,具有美观的新闻小部件,使得信息的展现既实用又吸引人。 2. 用户体验: - 桌面通知功能,通过Chrome的新通知中心托盘进行实时推送,确保用户不会错过任何重要新闻。 - 提供一个便捷的方式来保持与Crossbow Spot最新动态的同步。 3. 语言支持: - 该插件目前仅支持英语,但开发者已经计划在未来的版本中添加对其他语言的支持。 4. 技术实现: - 此扩展程序是基于RSS Feed实现的,即从Crossbow Spot的RSS源中提取最新新闻。 - 扩展程序利用了Chrome的通知API,以及RSS Feed处理机制来实现新闻的即时推送和展示。 5. 版权与免责声明: - 所有的新闻内容都是通过RSS Feed聚合而来,扩展程序本身不提供原创内容。 - 用户在使用插件时应遵守相关的版权和隐私政策。 6. 安装与使用: - 用户需要从Chrome网上应用店下载.crx格式的插件文件,即Crossbow_Spot_-_Latest_News_Update.crx。 - 安装后,插件会自动运行,并且用户可以对其进行配置以满足个人偏好。 从以上信息可以看出,该扩展程序为那些对Crossbow Spot感兴趣或需要密切跟进其更新的用户提供了一个便捷的解决方案,通过集成RSS源和Chrome通知机制,使得信息获取变得更加高效和及时。这对于需要实时更新信息的用户而言,具有一定的实用价值。同时,插件的未来发展计划中包括了多语言支持,这将使得更多的用户能够使用并从中受益。