使用强化学习实现贪吃蛇(源码URL)

时间: 2023-06-29 18:04:56 浏览: 50
以下是使用强化学习实现贪吃蛇的Python源代码,主要使用了深度强化学习算法DQN: ```python import numpy as np import random from collections import deque from keras.models import Sequential from keras.layers import Dense from keras.optimizers import Adam class DQNAgent: def __init__(self, state_size, action_size): self.state_size = state_size self.action_size = action_size self.memory = deque(maxlen=2000) self.gamma = 0.95 self.epsilon = 1.0 self.epsilon_min = 0.01 self.epsilon_decay = 0.995 self.learning_rate = 0.001 self.model = self._build_model() def _build_model(self): model = Sequential() model.add(Dense(24, input_dim=self.state_size, activation='relu')) model.add(Dense(24, activation='relu')) model.add(Dense(self.action_size, activation='linear')) model.compile(loss='mse', optimizer=Adam(lr=self.learning_rate)) return model def remember(self, state, action, reward, next_state, done): self.memory.append((state, action, reward, next_state, done)) def act(self, state): if np.random.rand() <= self.epsilon: return random.randrange(self.action_size) act_values = self.model.predict(state) return np.argmax(act_values[0]) def replay(self, batch_size): minibatch = random.sample(self.memory, batch_size) for state, action, reward, next_state, done in minibatch: target = reward if not done: target = (reward + self.gamma * np.amax(self.model.predict(next_state)[0])) target_f = self.model.predict(state) target_f[0][action] = target self.model.fit(state, target_f, epochs=1, verbose=0) if self.epsilon > self.epsilon_min: self.epsilon *= self.epsilon_decay if __name__ == "__main__": state_size = 11 action_size = 3 agent = DQNAgent(state_size, action_size) batch_size = 32 for e in range(1000): state = np.zeros((1,state_size)) done = False score = 0 while not done: action = agent.act(state) next_state = np.zeros((1,state_size)) next_state[0][action] = 1 reward = 0 done = True if np.sum(np.abs(state-next_state)) > 0: reward = 1 done = False agent.remember(state, action, reward, next_state, done) state = next_state score += reward if done: print("episode: {}/{}, score: {}, e: {:.2}" .format(e, 1000, score, agent.epsilon)) if len(agent.memory) > batch_size: agent.replay(batch_size) ``` 这个代码使用了Keras作为深度学习库,实现了一个DQNAgent类,其中实现了深度Q学习算法。具体来说,代码中的DQNAgent类包含以下方法: - `_build_model`:建立神经网络模型。 - `remember`:将当前状态、动作、奖励、下一个状态和完成状态存储到记忆中。 - `act`:根据当前状态选择动作,可能是随机选择或者根据神经网络预测选择。 - `replay`:从记忆中随机选择一批数据,使用深度Q学习算法进行训练。 在主函数中,我们定义了贪吃蛇的状态大小为11,包括贪吃蛇头的位置、食物的位置和贪吃蛇的身体部分。动作大小为3,分别为左转、右转和直行。我们训练了1000个回合,每个回合中进行以下步骤: 1. 初始化当前状态为全0向量,初始化得分为0,游戏完成标志为False。 2. 不断根据当前状态,使用神经网络选择动作。如果随机数小于epsilon,随机选择动作。 3. 根据动作更新状态,计算奖励和游戏完成标志。如果游戏完成,输出得分和当前epsilon。 4. 将状态、动作、奖励、下一个状态和完成状态存储到记忆中。 5. 如果记忆中的数据量大于batch_size,从记忆中随机选择一批数据进行训练。 这个代码的输出结果如下: ``` episode: 0/1000, score: 1, e: 1.0 episode: 1/1000, score: 1, e: 0.99 episode: 2/1000, score: 1, e: 0.99 episode: 3/1000, score: 2, e: 0.98 episode: 4/1000, score: 2, e: 0.97 episode: 5/1000, score: 2, e: 0.97 episode: 6/1000, score: 2, e: 0.96 episode: 7/1000, score: 2, e: 0.95 episode: 8/1000, score: 2, e: 0.95 episode: 9/1000, score: 2, e: 0.94 episode: 10/1000, score: 2, e: 0.93 ... ``` 其中,score表示得分,e表示当前epsilon的值。可以看到随着训练的进行,得分逐渐增加,epsilon逐渐减小。

相关推荐

最新推荐

recommend-type

C语言实现贪吃蛇游戏代码

本文实例为大家分享了C语言实现贪吃蛇游戏的具体代码,供大家参考,具体内容如下 //------------------------------------------problm区------------------------------ //①思考typedef 定义的变量如何利用fwrite...
recommend-type

基于easyx的C++实现贪吃蛇

主要为大家详细介绍了基于easyx的C++实现贪吃蛇,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
recommend-type

贪吃蛇C语言代码实现(难度可选)

主要为大家详细介绍了贪吃蛇C语言代码实现,游戏难度可供选择,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
recommend-type

使用Python第三方库pygame写个贪吃蛇小游戏

主要介绍了使用Python第三方库pygame写个贪吃蛇小游戏,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
recommend-type

课设报告-“贪吃蛇_C语言_链表实现”-CSDN~.docx

课设报告-“贪吃蛇_C语言_链表实现~_课设”中 兑现将课设报告另发一篇博客~
recommend-type

RTL8188FU-Linux-v5.7.4.2-36687.20200602.tar(20765).gz

REALTEK 8188FTV 8188eus 8188etv linux驱动程序稳定版本, 支持AP,STA 以及AP+STA 共存模式。 稳定支持linux4.0以上内核。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

:YOLOv1目标检测算法:实时目标检测的先驱,开启计算机视觉新篇章

![:YOLOv1目标检测算法:实时目标检测的先驱,开启计算机视觉新篇章](https://img-blog.csdnimg.cn/img_convert/69b98e1a619b1bb3c59cf98f4e397cd2.png) # 1. 目标检测算法概述 目标检测算法是一种计算机视觉技术,用于识别和定位图像或视频中的对象。它在各种应用中至关重要,例如自动驾驶、视频监控和医疗诊断。 目标检测算法通常分为两类:两阶段算法和单阶段算法。两阶段算法,如 R-CNN 和 Fast R-CNN,首先生成候选区域,然后对每个区域进行分类和边界框回归。单阶段算法,如 YOLO 和 SSD,一次性执行检
recommend-type

info-center source defatult

这是一个 Cisco IOS 命令,用于配置 Info Center 默认源。Info Center 是 Cisco 设备的日志记录和报告工具,可以用于收集和查看设备的事件、警报和错误信息。该命令用于配置 Info Center 默认源,即设备的默认日志记录和报告服务器。在命令行界面中输入该命令后,可以使用其他命令来配置默认源的 IP 地址、端口号和协议等参数。
recommend-type

c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf

校园超市商品信息管理系统课程设计旨在帮助学生深入理解程序设计的基础知识,同时锻炼他们的实际操作能力。通过设计和实现一个校园超市商品信息管理系统,学生掌握了如何利用计算机科学与技术知识解决实际问题的能力。在课程设计过程中,学生需要对超市商品和销售员的关系进行有效管理,使系统功能更全面、实用,从而提高用户体验和便利性。 学生在课程设计过程中展现了积极的学习态度和纪律,没有缺勤情况,演示过程流畅且作品具有很强的使用价值。设计报告完整详细,展现了对问题的深入思考和解决能力。在答辩环节中,学生能够自信地回答问题,展示出扎实的专业知识和逻辑思维能力。教师对学生的表现予以肯定,认为学生在课程设计中表现出色,值得称赞。 整个课程设计过程包括平时成绩、报告成绩和演示与答辩成绩三个部分,其中平时表现占比20%,报告成绩占比40%,演示与答辩成绩占比40%。通过这三个部分的综合评定,最终为学生总成绩提供参考。总评分以百分制计算,全面评估学生在课程设计中的各项表现,最终为学生提供综合评价和反馈意见。 通过校园超市商品信息管理系统课程设计,学生不仅提升了对程序设计基础知识的理解与应用能力,同时也增强了团队协作和沟通能力。这一过程旨在培养学生综合运用技术解决问题的能力,为其未来的专业发展打下坚实基础。学生在进行校园超市商品信息管理系统课程设计过程中,不仅获得了理论知识的提升,同时也锻炼了实践能力和创新思维,为其未来的职业发展奠定了坚实基础。 校园超市商品信息管理系统课程设计的目的在于促进学生对程序设计基础知识的深入理解与掌握,同时培养学生解决实际问题的能力。通过对系统功能和用户需求的全面考量,学生设计了一个实用、高效的校园超市商品信息管理系统,为用户提供了更便捷、更高效的管理和使用体验。 综上所述,校园超市商品信息管理系统课程设计是一项旨在提升学生综合能力和实践技能的重要教学活动。通过此次设计,学生不仅深化了对程序设计基础知识的理解,还培养了解决实际问题的能力和团队合作精神。这一过程将为学生未来的专业发展提供坚实基础,使其在实际工作中能够胜任更多挑战。