maddpg结合优先经验回放和mpe环境 tensorflow代码

时间: 2024-05-13 13:18:55 浏览: 292
ZIP

基于 python+mindspore框架训练多智能体强化学习中的mpe环境

以下是使用TensorFlow实现MADDPG算法并结合优先经验回放和MPE环境的代码。代码中包含注释以帮助理解。 ```python import numpy as np import tensorflow as tf import random from mlagents.envs import UnityEnvironment from mlagents.envs import BrainInfo # 超参数 BUFFER_SIZE = int(1e6) # 经验回放缓冲区大小 BATCH_SIZE = 128 # 批量大小 GAMMA = 0.99 # 折扣因子 TAU = 1e-3 # 目标网络更新速率 LR_ACTOR = 1e-3 # Actor网络学习率 LR_CRITIC = 1e-3 # Critic网络学习率 UPDATE_EVERY = 2 # 更新网络的时间步数 NUM_UPDATES = 10 # 每次更新网络的次数 # 神经网络模型 class Actor(tf.keras.Model): def __init__(self, state_size, action_size): super(Actor, self).__init__() self.fc1 = tf.keras.layers.Dense(256, activation='relu') self.fc2 = tf.keras.layers.Dense(128, activation='relu') self.fc3 = tf.keras.layers.Dense(action_size, activation='tanh') def call(self, state): x = self.fc1(state) x = self.fc2(x) x = self.fc3(x) return x class Critic(tf.keras.Model): def __init__(self, state_size, action_size): super(Critic, self).__init__() self.fc1 = tf.keras.layers.Dense(256, activation='relu') self.fc2 = tf.keras.layers.Dense(128, activation='relu') self.fc3 = tf.keras.layers.Dense(1, activation=None) self.fc4 = tf.keras.layers.Dense(256, activation='relu') self.fc5 = tf.keras.layers.Dense(128, activation='relu') self.fc6 = tf.keras.layers.Dense(1, activation=None) def call(self, state, action): xs = tf.concat([state, action], axis=1) x1 = self.fc1(xs) x1 = self.fc2(x1) x1 = self.fc3(x1) x2 = self.fc4(xs) x2 = self.fc5(x2) x2 = self.fc6(x2) return x1, x2 # 优先经验回放类 class PrioritizedReplay: def __init__(self, buffer_size, batch_size): self.buffer_size = buffer_size self.batch_size = batch_size self.buffer = [] self.priorities = np.zeros((buffer_size,), dtype=np.float32) self.pos = 0 self.alpha = 0.5 self.beta = 0.5 self.beta_increment_per_sampling = 0.001 def add(self, state, action, reward, next_state, done): max_priority = np.max(self.priorities) if self.buffer else 1.0 experience = (state, action, reward, next_state, done) if len(self.buffer) < self.buffer_size: self.buffer.append(experience) else: self.buffer[self.pos] = experience self.priorities[self.pos] = max_priority self.pos = (self.pos + 1) % self.buffer_size def sample(self): if len(self.buffer) == self.buffer_size: priorities = self.priorities else: priorities = self.priorities[:self.pos] probs = priorities ** self.alpha probs /= probs.sum() indices = np.random.choice(len(self.buffer), self.batch_size, p=probs) samples = [self.buffer[idx] for idx in indices] total = len(self.buffer) weights = (total * probs[indices]) ** (-self.beta) weights /= weights.max() self.beta = np.min([1., self.beta + self.beta_increment_per_sampling]) return indices, samples, weights def update_priorities(self, batch_indices, batch_priorities): for idx, priority in zip(batch_indices, batch_priorities): self.priorities[idx] = priority # MADDPG算法类 class MADDPG: def __init__(self, state_size, action_size, num_agents): self.state_size = state_size self.action_size = action_size self.num_agents = num_agents self.actors = [Actor(state_size, action_size) for _ in range(num_agents)] self.critics = [Critic((state_size+action_size)*num_agents, 1) for _ in range(num_agents)] self.target_actors = [Actor(state_size, action_size) for _ in range(num_agents)] self.target_critics = [Critic((state_size+action_size)*num_agents, 1) for _ in range(num_agents)] for i in range(num_agents): self.target_actors[i].set_weights(self.actors[i].get_weights()) self.target_critics[i].set_weights(self.critics[i].get_weights()) self.buffer = PrioritizedReplay(BUFFER_SIZE, BATCH_SIZE) self.actor_optimizer = [tf.keras.optimizers.Adam(LR_ACTOR) for _ in range(num_agents)] self.critic_optimizer = [tf.keras.optimizers.Adam(LR_CRITIC) for _ in range(num_agents)] self.t_step = 0 def act(self, obs): obs = np.array(obs) actions = [] for i in range(self.num_agents): action = self.actors[i](obs[i][np.newaxis,:], training=False) actions.append(action.numpy()) actions = np.concatenate(actions, axis=0) return actions def step(self, state, action, reward, next_state, done): self.buffer.add(state, action, reward, next_state, done) self.t_step = (self.t_step + 1) % UPDATE_EVERY if self.t_step == 0 and len(self.buffer.buffer) > BATCH_SIZE: for _ in range(NUM_UPDATES): indices, samples, weights = self.buffer.sample() self.learn(samples, weights) self.update_targets() self.buffer.update_priorities(indices, weights) def learn(self, samples, weights): states = np.array([sample[0] for sample in samples]) actions = np.array([sample[1] for sample in samples]) rewards = np.array([sample[2] for sample in samples]) next_states = np.array([sample[3] for sample in samples]) dones = np.array([sample[4] for sample in samples]) for i in range(self.num_agents): # 计算Q值 with tf.GradientTape(persistent=True) as tape: target_actions = [self.target_actors[j](next_states[j][np.newaxis,:], training=False) for j in range(self.num_agents)] target_actions = np.concatenate(target_actions, axis=0) target_qs = self.target_critics[i]((next_states.reshape(-1, self.state_size*self.num_agents), target_actions)) target_qs = target_qs.numpy().reshape(-1, self.num_agents) q_targets = rewards[:,i][:,np.newaxis] + (GAMMA * target_qs * (1 - dones[:,i][:,np.newaxis])) critic_qs = self.critics[i]((states.reshape(-1, self.state_size*self.num_agents), actions.reshape(-1, self.action_size*self.num_agents))) critic_loss = tf.reduce_mean(weights * (q_targets - critic_qs)**2) critic_grads = tape.gradient(critic_loss, self.critics[i].trainable_variables) self.critic_optimizer[i].apply_gradients(zip(critic_grads, self.critics[i].trainable_variables)) # 计算Actor梯度 with tf.GradientTape() as tape: actor_actions = [self.actors[j](states[:,j,:], training=False) if j == i else self.actors[j](states[:,j,:], training=True) for j in range(self.num_agents)] actor_actions = np.concatenate(actor_actions, axis=0) actor_loss = -tf.reduce_mean(self.critics[i]((states.reshape(-1, self.state_size*self.num_agents), actor_actions))) actor_grads = tape.gradient(actor_loss, self.actors[i].trainable_variables) self.actor_optimizer[i].apply_gradients(zip(actor_grads, self.actors[i].trainable_variables)) def update_targets(self): for i in range(self.num_agents): self.target_actors[i].set_weights(TAU*np.array(self.actors[i].get_weights())+(1-TAU)*np.array(self.target_actors[i].get_weights())) self.target_critics[i].set_weights(TAU*np.array(self.critics[i].get_weights())+(1-TAU)*np.array(self.target_critics[i].get_weights())) # 环境 env_name = "MPE/3DBall" env = UnityEnvironment(file_name=env_name) brain_name = env.brain_names[0] brain = env.brains[brain_name] env_info = env.reset()[brain_name] state_size = env_info.vector_observations.shape[1] action_size = brain.vector_action_space_size num_agents = len(env_info.agents) maddpg = MADDPG(state_size, action_size, num_agents) scores = [] scores_window = deque(maxlen=100) for i_episode in range(10000): env_info = env.reset()[brain_name] obs = env_info.vector_observations score = np.zeros(num_agents) while True: actions = maddpg.act(obs) env_info = env.step(actions)[brain_name] next_obs = env_info.vector_observations rewards = env_info.rewards dones = env_info.local_done maddpg.step(obs, actions, rewards, next_obs, dones) obs = next_obs score += rewards if np.any(dones): break scores_window.append(np.max(score)) scores.append(np.max(score)) print('\rEpisode {}\tAverage Score: {:.2f}'.format(i_episode, np.mean(scores_window)), end="") if i_episode % 100 == 0: print('\rEpisode {}\tAverage Score: {:.2f}'.format(i_episode, np.mean(scores_window))) if np.mean(scores_window)>=0.5: print('\nEnvironment solved in {:d} episodes!\tAverage Score: {:.2f}'.format(i_episode, np.mean(scores_window))) break env.close() ```
阅读全文

相关推荐

最新推荐

recommend-type

【java毕业设计】智慧社区教育服务门户.zip

有java环境就可以运行起来 ,zip里包含源码+论文+PPT, 系统设计与功能: 文档详细描述了系统的后台管理功能,包括系统管理模块、新闻资讯管理模块、公告管理模块、社区影院管理模块、会员上传下载管理模块以及留言管理模块。 系统管理模块:允许管理员重新设置密码,记录登录日志,确保系统安全。 新闻资讯管理模块:实现新闻资讯的添加、删除、修改,确保主页新闻部分始终显示最新的文章。 公告管理模块:类似于新闻资讯管理,但专注于主页公告的后台管理。 社区影院管理模块:管理所有视频的添加、删除、修改,包括影片名、导演、主演、片长等信息。 会员上传下载管理模块:审核与删除会员上传的文件。 留言管理模块:回复与删除所有留言,确保系统内的留言得到及时处理。 环境说明: 开发语言:Java 框架:ssm,mybatis JDK版本:JDK1.8 数据库:mysql 5.7及以上 数据库工具:Navicat11及以上 开发软件:eclipse/idea Maven包:Maven3.3及以上
recommend-type

基于selenium的携程机票爬虫资料齐全+详细文档+高分项目+源码.zip

【资源说明】 基于selenium的携程机票爬虫资料齐全+详细文档+高分项目+源码.zip 【备注】 1、该项目是个人高分项目源码,已获导师指导认可通过,答辩评审分达到95分 2、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 3、本项目适合计算机相关专业(人工智能、通信工程、自动化、电子信息、物联网等)的在校学生、老师或者企业员工下载使用,也可作为毕业设计、课程设计、作业、项目初期立项演示等,当然也适合小白学习进阶。 4、如果基础还行,可以在此代码基础上进行修改,以实现其他功能,也可直接用于毕设、课设、作业等。 欢迎下载,沟通交流,互相学习,共同进步!
recommend-type

【java毕业设计】智慧社区宠物管理系统(源代码+论文+PPT模板).zip

zip里包含源码+论文+PPT,有java环境就可以运行起来 ,功能说明: 文档开篇阐述了随着计算机技术、通信技术和网络技术的快速发展,智慧社区门户网站的建设成为了可能,并被视为21世纪信息产业的主要发展方向之一 强调了网络信息管理技术、数字化处理技术和数字式信息资源建设在国际竞争中的重要性。 指出了智慧社区门户网站系统的编程语言为Java,数据库为MYSQL,并实现了新闻资讯、社区共享、在线影院等功能。 系统设计与功能: 文档详细描述了系统的后台管理功能,包括系统管理模块、新闻资讯管理模块、公告管理模块、社区影院管理模块、会员上传下载管理模块以及留言管理模块。 系统管理模块:允许管理员重新设置密码,记录登录日志,确保系统安全。 新闻资讯管理模块:实现新闻资讯的添加、删除、修改,确保主页新闻部分始终显示最新的文章。 公告管理模块:类似于新闻资讯管理,但专注于主页公告的后台管理。 社区影院管理模块:管理所有视频的添加、删除、修改,包括影片名、导演、主演、片长等信息。 会员上传下载管理模块:审核与删除会员上传的文件。 留言管理模块:回复与删除所有留言,确保系统内的留言得到及时处理。
recommend-type

免费下载:Civil War (Stuart Moore)_xVBgd.zip

免费下载:Civil War (Stuart Moore)_xVBgd.zip
recommend-type

JSP基于WEB的图书馆借阅系统的设计与实现(源代码+论文)(2024pw).7z

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于计算机科学与技术等相关专业,更为适合;
recommend-type

JavaScript实现的高效pomodoro时钟教程

资源摘要信息:"JavaScript中的pomodoroo时钟" 知识点1:什么是番茄工作法 番茄工作法是一种时间管理技术,它是由弗朗西斯科·西里洛于1980年代末发明的。该技术使用一个定时器来将工作分解为25分钟的块,这些时间块之间短暂休息。每个时间块被称为一个“番茄”,因此得名“番茄工作法”。该技术旨在帮助人们通过短暂的休息来提高集中力和生产力。 知识点2:JavaScript是什么 JavaScript是一种高级的、解释执行的编程语言,它是网页开发中最主要的技术之一。JavaScript主要用于网页中的前端脚本编写,可以实现用户与浏览器内容的交云互动,也可以用于服务器端编程(Node.js)。JavaScript是一种轻量级的编程语言,被设计为易于学习,但功能强大。 知识点3:使用JavaScript实现番茄钟的原理 在使用JavaScript实现番茄钟的过程中,我们需要用到JavaScript的计时器功能。JavaScript提供了两种计时器方法,分别是setTimeout和setInterval。setTimeout用于在指定的时间后执行一次代码块,而setInterval则用于每隔一定的时间重复执行代码块。在实现番茄钟时,我们可以使用setInterval来模拟每25分钟的“番茄时间”,使用setTimeout来控制每25分钟后的休息时间。 知识点4:如何在JavaScript中设置和重置时间 在JavaScript中,我们可以使用Date对象来获取和设置时间。Date对象允许我们获取当前的日期和时间,也可以让我们创建自己的日期和时间。我们可以通过new Date()创建一个新的日期对象,并使用Date对象提供的各种方法,如getHours(), getMinutes(), setHours(), setMinutes()等,来获取和设置时间。在实现番茄钟的过程中,我们可以通过获取当前时间,然后加上25分钟,来设置下一个番茄时间。同样,我们也可以通过获取当前时间,然后减去25分钟,来重置上一个番茄时间。 知识点5:实现pomodoro-clock的基本步骤 首先,我们需要创建一个定时器,用于模拟25分钟的工作时间。然后,我们需要在25分钟结束后提醒用户停止工作,并开始短暂的休息。接着,我们需要为用户的休息时间设置另一个定时器。在用户休息结束后,我们需要重置定时器,开始下一个工作周期。在这个过程中,我们需要为每个定时器设置相应的回调函数,以处理定时器触发时需要执行的操作。 知识点6:使用JavaScript实现pomodoro-clock的优势 使用JavaScript实现pomodoro-clock的优势在于JavaScript的轻量级和易学性。JavaScript作为前端开发的主要语言,几乎所有的现代浏览器都支持JavaScript。因此,我们可以很容易地在网页中实现pomodoro-clock,用户只需要打开网页即可使用。此外,JavaScript的灵活性也使得我们可以根据需要自定义pomodoro-clock的各种参数,如工作时间长度、休息时间长度等。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【WebLogic客户端兼容性提升秘籍】:一站式解决方案与实战案例

![WebLogic](https://docs.oracle.com/cd/F28299_01/pt857pbr3/eng/pt/tsvt/img/ia2cf27cn-7b68.png) # 摘要 WebLogic作为一款广泛使用的中间件产品,其客户端兼容性对于企业应用至关重要。本文从基本概念出发,系统地介绍了WebLogic的架构、组件以及兼容性问题的分类和影响。通过深入分析兼容性测试方法和诊断分析技术,探讨了如何有效地识别和解决客户端兼容性问题。进一步,本文提出了提升兼容性的策略,包括代码层面的设计、配置管理、补丁升级以及快速响应流程。最后,结合实战案例,本文详细说明了解决方案的实施过
recommend-type

使用jupyter读取文件“近5年考试人数.csv”,绘制近5年高考及考研人数发展趋势图,数据如下(单位:万人)。

在Jupyter Notebook中读取CSV文件并绘制图表,通常需要几个步骤: 1. 首先,你需要导入必要的库,如pandas用于数据处理,matplotlib或seaborn用于数据可视化。 ```python import pandas as pd import matplotlib.pyplot as plt ``` 2. 使用`pd.read_csv()`函数加载CSV文件: ```python df = pd.read_csv('近5年考试人数.csv') ``` 3. 确保数据已经按照年份排序,如果需要的话,可以添加这一行: ```python df = df.sor
recommend-type

CMake 3.25.3版本发布:程序员必备构建工具

资源摘要信息:"Cmake-3.25.3.zip文件是一个包含了CMake软件版本3.25.3的压缩包。CMake是一个跨平台的自动化构建系统,用于管理软件的构建过程,尤其是对于C++语言开发的项目。CMake使用CMakeLists.txt文件来配置项目的构建过程,然后可以生成不同操作系统的标准构建文件,如Makefile(Unix系列系统)、Visual Studio项目文件等。CMake广泛应用于开源和商业项目中,它有助于简化编译过程,并支持生成多种开发环境下的构建配置。 CMake 3.25.3版本作为该系列软件包中的一个点,是CMake的一个稳定版本,它为开发者提供了一系列新特性和改进。随着版本的更新,3.25.3版本可能引入了新的命令、改进了用户界面、优化了构建效率或解决了之前版本中发现的问题。 CMake的主要特点包括: 1. 跨平台性:CMake支持多种操作系统和编译器,包括但不限于Windows、Linux、Mac OS、FreeBSD、Unix等。 2. 编译器独立性:CMake生成的构建文件与具体的编译器无关,允许开发者在不同的开发环境中使用同一套构建脚本。 3. 高度可扩展性:CMake能够使用CMake模块和脚本来扩展功能,社区提供了大量的模块以支持不同的构建需求。 4. CMakeLists.txt:这是CMake的配置脚本文件,用于指定项目源文件、库依赖、自定义指令等信息。 5. 集成开发环境(IDE)支持:CMake可以生成适用于多种IDE的项目文件,例如Visual Studio、Eclipse、Xcode等。 6. 命令行工具:CMake提供了命令行工具,允许用户通过命令行对构建过程进行控制。 7. 可配置构建选项:CMake支持构建选项的配置,使得用户可以根据需要启用或禁用特定功能。 8. 包管理器支持:CMake可以从包管理器中获取依赖,并且可以使用FetchContent或ExternalProject模块来获取外部项目。 9. 测试和覆盖工具:CMake支持添加和运行测试,并集成代码覆盖工具,帮助开发者对代码进行质量控制。 10. 文档和帮助系统:CMake提供了一个内置的帮助系统,可以为用户提供命令和变量的详细文档。 CMake的安装和使用通常分为几个步骤: - 下载并解压对应平台的CMake软件包。 - 在系统中配置CMake的环境变量,确保在命令行中可以全局访问cmake命令。 - 根据项目需要编写CMakeLists.txt文件。 - 在含有CMakeLists.txt文件的目录下执行cmake命令生成构建文件。 - 使用生成的构建文件进行项目的构建和编译工作。 CMake的更新和迭代通常会带来更好的用户体验和更高效的构建过程。对于开发者而言,及时更新到最新稳定版本的CMake是保持开发效率和项目兼容性的重要步骤。而对于新用户,掌握CMake的使用则是学习现代软件构建技术的一个重要方面。"