没有合适的资源?快使用搜索试试~ 我知道了~
17Ⓧ第十六届AAAI人工智能和交互式数字娱乐会议(AIIDE-20)您的好友,大师:重新利用游戏AI盈余以实现包容性作者:Batu Aytemiz,Xueer Shu,Eric Hu,Adam M.史密斯加州大学圣克鲁兹分校{baytemiz,xzhu54,erjihu,amsmith} @ ucsc.edu摘要人工智能(AI)技术的进步导致我们在玩电子游戏的算法上取得了巨大的突破。然而,对游戏AI(GPAI)技术的投资增加并没有转化为玩家游戏体验的切实改善。本文的灵感来自于最近游戏中可访问性模式的积极影响,以及之前游戏研究文献中关注玩家体验的呼吁。为了回应这些呼吁,我们建议利用GPAI技术,而不是像传统上那样击败玩家,支持他们充分体验游戏。我们声称,利用GPAI代理来帮助玩家克服障碍是重新利用这些代理的能力的一种有效方式。我们还提供了一个设计练习,以帮助开发人员探索可能的GPAI驱动的援助方法的空间。这个练习帮助开发人员发现挑战的类型,并构思出不同程度和不同类型的方法我们首先应用这个设计练习来探索动作平台游戏Celeste可能的辅助方法的设计空间。然后,我们在Celeste的Unity克隆中实现了两个针对不同挑战类型的方法。通过这一实施,我们发现了几个额外的研究问题,我们必须回答之前,GPAI驱动的援助方法可以真正有效。我们相信,这一研究方向将进一步讨论如何利用GPAI来服务于玩家体验,并有助于创造更具包容性的游戏。自2010年代中期以来,游戏AI(GPAI)技术已经取得了几次重大胜利。在视频游戏领域,研究界在克服几个困难问题方面取得了进展:围棋中的巨大分支因素(Silver和Huang 2016); DOTA2中的多智能体通信(Berner 2019);在poke中处理隐藏的信息(Brown和Sandholm 2019 ) ; 使 用 Atari 解 析 屏 幕 ( Badia 等 人2020);以及在星际争霸2中平衡低级控制与高级决策(Vinyals和Babuschkin 2019)。在所有这些项目中,AI智能体都学会了如何很好地玩游戏,甚至经常击败他们面对的最好的人类对手。然而,这种游戏的增加,智能体的敏捷性并没有直接改善人类玩家的游戏体验。我们将玩游戏的AI技术分类为任何在游戏状态中采取并将其映射到代理要采取的动作的功能。就本文而言,我们对用于进行映射的方法不感兴趣;相反,我们将专注于此映射如何帮助玩家。《游戏中的AI》一书描述了游戏中学术AI的三个高级用例:游戏、过程内容生成(PCG)和玩家建模(Yan- nakakis和Togelius 2018)。PCG和玩家建模都已 被 游 戏 行 业 广 泛 采 用 ( Fer- nandes , Castanho 和Jacobi 2018 ) ( Bakkes , Spronck 和 van Lankveld2012)。然而,最近在游戏方面的改进,特别是基于学习的方法,还没有看到类似的采用水平。游戏研究的一个重要部分是关于创建最佳游戏的代理(Yan- nakakis和Togelius 2018)。然而,这种对最优性的渴望在游戏行业中并不存在商业游戏开发商对为玩家创造不可战胜的对手并不感兴趣;相反,他们关心的是打造一种引人入胜的体验。因此,对作为非玩家角色(NPC)的最佳AI代理的需求通常不是很高(Schwab 2011)。大多数NPC敌人在从游戏中移除之前都只能存活很短的时间更简单的技术足以在这么短的时间内实现预期的即使是对手,预计提出了一个很好的战斗通常可以通过作弊幕后或通过聪明的游戏机制这样做。即使人工智能智能的目标是要像尽可能地,总是存在潜在的美学约束。AI代理的行为必须适合游戏的上下文。最近的大多数强化学习或进化即使连续跳跃可能是穿越地图的最佳方式,游戏设计者也不太可能高兴版权所有c2020,人工智能促进协会(www.aaai.org)。Allrights reserved.看到他们的特种兵NPC这样做。 这些障碍在使用游戏技术的主要-18当我们假设,就像传统上做的那样,AI将驱动对手的行为来击败玩家时,就会出现这种情况。然而,我们的游戏有几种不同的方式-代理可以帮助玩家:一个基于搜索的智能体可以在一个复杂的动作平台游戏中突出显示一条穿过障碍物的好路径,允许用户集中精力计时他们的按钮按下以遵循突出显示的路径。基于规则的代理可以在玩家持续使用非预期工具进行工作时提供提醒,允许玩家利用游戏提供的所有启示。基于策略的智能体可以控制实时策略游戏中的微操单元,使玩家能够将注意力集中在宏观层面的策略选择上。一个基于价值的智能体可以精确地指出哪一个动作降低了玩家将我们的重点从击败球员转移到支持球员有几个好处。通过辅助,最优性成为一个有价值的特性,因为我们希望AI以最好的方式帮助玩家!此外,根据我们选择的实现方式,我们可以在不需要物理化身的情况下帮助玩家,这使得塑造AI的美学影响变得更加容易。我们为什么要关心为我们的球员提供帮助因为这样做会让我们的游戏更具包容性,让更多的玩家体验我们的游戏(Pitaru 2008)。每个玩家都是不同的,可能有不同的需求来充分参与游戏(Holmes 2018)。有些玩家可能会发现一个游戏无法访问,由于其难度。其他玩家可能会发现由于配色方案和特定输入映射等设计选择,同一款游戏无法访问(Liu 2018)。提供一系列的抗干扰方法可以帮助我们减少玩家和游戏之间的不匹 配。近年 来,游 戏,如困 难的动 作平台 游戏Celeste(Matt Makes Games 2018)已经开始包括辅助模式。我们建议使用人工智能代理来帮助我们的球员作为一个个性化的和有效的扩展,以预先存在的协助模式。我们应该使用GPAI来帮助我们的玩家的另一个原因是,上下文帮助可能会增加玩家的记忆力,特别是在高度复杂的游戏中(Andersen et al. 2012)。玩家停止玩游戏的一个原因是他们没有完全掌握如何玩游戏本身(Cheung,Zimmermann和Nagappan 2014)。我们可以使用GPAI向玩家展示如何在他们陷入困境并面临放弃游戏的风险时继续前进玩家在无法进行操作时参考walkerboard和wiki已经很常见了,而拥有一个玩家可以从游戏本身寻求帮助的系统将给设计师更多的控制权然而,玩家可能需要帮助的游戏的哪些方面可能不是立即明显的。此外,很难辨别不同的援助方法可能是什么为了帮助解决这些挑战,我们提出了一个设计练习,探索GPAI驱动的援助方法的设计空间。这个练习可以帮助我们对游戏的挑战进行分类,并使用这些挑战类别来构思不同的辅助方法。在本文中,我们将此设计练习应用于Celeste,以生成各种不同的辅助方法想法。然后,我们实现其中两个,一个响应执行挑战,一个响应规划挑战。这种实现的目的是更好地理解使用GPAI通过创 建 计 算 漫 画 来 帮 助 玩 家 的 含 义 (Smith 和Mateas2011)。总之,本文有助于:1. 重新设计,利用游戏AI技术为玩家体验和包容性服务,2. 一项设计工作,系统地探索全球行动纲领驱动的援助方法的设计空间,3. 在Celeste的克隆行动平台中,针对两种不同的挑战实现了两种不同的援助方法相关工作玩游戏的能力一直是AI系统的长期目标。1959年,人工智能研究的先驱阿瑟·塞缪尔(Arthur Samuel)利用跳棋游戏来研究机器学习(Samuel 1959)。在20世纪90年代 早期,时 间差异 学习被用 于玩西 洋双陆 棋(Tesauro 1995),1997年,IBM卡斯帕罗夫对这次失败的反应非常积极.第二年,1998 年 , 他 宣 布 了 高 级 国 际 象 棋 ( 卡 斯 帕 罗 夫2017),这是一种全新的国际象棋,每个人类棋手都使用计算机国际象棋程序来探索候选移动的可能结果(de Vassal).几年后,在2005年,组织了一场自由式国际象棋比赛,任何人工智能,人类或半人马队都可以参加比赛。令人惊讶的是,获胜者并不是一位由超级计算机支持的大师;相反,获胜者是一对业余棋手,他们使用三台普通的台式计算机。让他们成功的不是他们个人的国际象棋知识,也不是他们的计算量在分析了这场胜利之后,卡斯帕罗夫得出了以下结论:在 过 去 的 十 年 中 , AlphaGo ( Silver 和 Huang2016),Ope- nAI Five(Berner 2019),Atari基准测试(Badia et al. 2020)和Starcraft(Vinyals和Babuschkin2019)已经出现了几个高度自动化的结果。然而,大多数研究,尤其是深度强化学习,一直专注于推动分数基准,而不是增强玩家体验。人工智能代理变得越来越强大,但创建不同流程以利用这种优势获得游戏体验的研究仍然是成熟的探索。利用卡斯帕罗夫····19我们如何利用游戏AI来支持玩家体验。然而,我们必须注意到,在视频游戏中使用AI来获得用户体验已经有了许多过去的发展对路径发现的重点研究(Abd Algfoor,Sunar和Kolivand 2015)允许更大数量的单位导航。PCG方法增加了许多游戏的可重玩 性 ( Shaker , Togelius 和 Nelson 2016 ) , 并 成 为roguelike和rogue-lite类型的关键组成部分。交互式故事讲述的研究导致了更可信的角色和更丰富的故事情节(Lebowitz和Klug 2012)。玩家建模研究使我们能够更深入地了解玩家的行为方式(Hooshyar,Youse Fi和Lim 2018)。最近的一些游戏已经开始包括辅助模式,让玩家调整游戏挑战。Celeste中的辅助模式是最全面的模式之一,并获得了很多赞誉(Klepek 2019)。有了它,玩家几乎可以调整游戏难度的每个方面:游戏速度,总攀爬耐力,允许的破折号数量和无敌是众多选项中的一个Celeste中的辅助模式,加上其他没有任何辅助功能的困难游戏(如Cuphead和Sekiro)的发布,引发了一系列围绕游戏设计意图和困难价值的讨论(Thompson2019; Kuchera 2017)。在许多游戏中,挑战对于设计是必不可少的,经验表明,挑战可以增加游戏的乐趣(Cox et al.2012; Petralito 2017)。辅助模式的目的不是让游戏更容易,而是让游戏更容易上手。增加玩家虽然我们在提高游戏可访问性方面已经取得了很大进展(Fortes 2017),但仍有改进的空间。除了可访问性,还有其他原因,玩家使用技术,似乎使游戏例如,他们可以通过使用工具辅助Speedruns(TAS)模拟器或使用训练器(Consalvo 2009)来更改游戏的主要模式。特定的技术也可以用来从游戏中提取额外的信息,以帮助分析更容易。一个这样的工具是鲍勃的好友(西格尔2020)的纸牌游戏炉石。在战场模式中,这个附加组件,给定一个棋盘状态,计算玩家赢、输或平局的几率,经常被玩家用来提高他们的像Bob's Buddy这样的工具此外,诸如工具辅助的speedrun模拟器之类的系统显示了替代的游戏方式。辅助模式的日益普及以及对它们的积极反应表明,使系统更易于访问在几个不同的方面是在下面的部分中,我们将描述我们在“更好的过程”上的尝试发现游戏AI驱动的辅助方法虽然我们很容易说我们应该利用GPAI代理来帮助玩家,但制定具体内容相对困难。首先,我们必须决定如何帮助球员。然后,我们必须决定援助的规模。大多数游戏提供各种挑战类型,并不是每个玩家都需要在每个挑战中获得支持。此外,虽然有些参与者更喜欢一点支持,但其他人可能会从更全面的解决方案中受益。在本节中,我们描述了一个设计练习,以促进形成一个援助方法组合,在援助类型和规模上各不相同。这种辅助方法的构思练习有三个步骤:1. 识别我们游戏的不同难度类型2. 建构辅助方法的设计空间,3. 探索这个空间来制定一个方法组合。识别挑战类型第一步是决定玩家在整个游戏中必须克服挑战可以通过简单的推理或通过使用预先存在的框架被认为是主要的。我们建议使用失败的税收(Aytemiz和Smith即将出版)(ToF)来确定游戏中的挑战类别订阅预先存在的框架使这一步骤更加系统化,使用ToF可以帮助发现意外的挑战类别,特别是在涉及可访问性时。然而,用户应该使用最适合他们游戏的分类方法。ToF提出了一个人们如何玩电子游戏的模型,重点关注玩家可能遇到失败的领域根据ToF,有六类故障。因此,玩家可能面临以下挑战:编码输入:玩家是否有能力使用游戏的控制?解码输出:玩家能解析游戏的反馈吗?发现机制:玩家知道他们在游戏中可以做什么吗?设定目标:玩家是否知道他们在游戏中应该完成什么?计划:玩家应该采取什么步骤来实现他们的目标?执行:玩家是否成功地按照他们的计划进行了操作?我们可以用ToF分析有问题的游戏,以确定挑战的主要类别。在Celeste中,弄清楚硬件按钮映射是什么不应该是挑战性的(编码输入)。解析屏幕和理解正在显示的内容也不是所期望的挑战之一(解码输出)。同样,在扮演塞莱斯特时,玩家有一个简单的目标:用有限但富有表现力的跳跃技能达到关卡的终点,······20冲啊,爬啊。发现目标和发现新机制并不是挑战所在(发现机制和设定目标)的一部分。相反,设计者对挑战“思想和手指”(Klepek 2019)感兴趣绘制设计空间重要的是,援助方法应针对不同的挑战--并非每个玩家都需要相同难度的援助--以及援助的程度--并非因此,可能的辅助方法的设计空间可以通过目标辅助类型和辅助幅度来参数化。为了构建这个设计空间,我们创建了一个图表,其中每个轴代表所选困难类型之一的援助增加幅度。通常,从一个数据集开始,将其映射到选定的轴,以探索数据点之间的相关性。在这个练习中,我们通过从一个空图开始,然后回到数据点来做相反的事情:我们在构造的图中选择一个点,并制定一个映射到所选点的辅助这一程序有助于系统地发现援助方法,这些方法在目标难度和援助规模方面各不相同一个积极的副作用是,它也会出现有趣的组合,其中两种困难类型都是辅助方法在不同程度上的目标。图1显示了我们尝试在Celeste中探索辅助方法的设计空间。这并不意味着是一个详尽的列表;相反,它让读者了解我们如何使用这个练习来选择空间中的一个点,并提出一个GPAI驱动的辅助方法来映射到我们选择的点。图的右上方区域代表了传统GPAI是如何使用的:通过完全响应所有挑战来玩游戏。底部区域示出仅针对执行挑战的辅助方法,并且左侧区域示出仅针对规划挑战的辅助方法中间区域显示了针对这两种困难的援助类型。下面,我们将简要说明我们使用Celeste的设计练习构思的一些潜在辅助方法其目的是展示利用这一做法可以达到的各种援助方法,而不是全面具体说明执行细节。发现的执行辅助方法点击移动这种援助风格出现后,我们问它会是什么样子,如果人工智能完全照顾到游戏中的执行挑战。当这种辅助方法处于活动状态时,正如其名称所示,玩家必须单独单击他们希望代理人去的任何地方,AI处理其余部分。我们认为执行辅助方法对那些可能没有执行复杂动作序列所需的手动灵活性,在CelesteGPAI执行援助的规模图1:每个点表示通过应用设计练习发现的可能的GPAI驱动的抗干扰方法该图不是相反,它是探索性的,因为它用于发现映射到设计空间中的点的辅助方法。仍然享受规划的挑战。这种辅助方法也可以被正在探索最佳方式来导航空间的玩家使用。在这种辅助方式中,玩家仍然需要将角色移动到他们想要的方向,但AI会负责跳过小障碍物,间隙和危险。我们的灵感来自于《刺客信条》游戏中的自由奔跑系统许多平台游戏,包括Celeste本身,都实现了一系列的宽恕机制(Seth Coster 2020)。例如,角色可以在他们离开壁架之后跳跃几帧这些附加功能巧妙地帮助了玩家,通常是用简单的布尔检查来实现的。如果我们有一个知道如何实现目标的人工智能发现的规划辅助方法Ghost最全面的规划辅助版本是当AI系统直接显示从地图中任何给定点开始的最佳路径时,无需移动角色。当玩家总是找不到正确的路径仅规划协助鬼一个按钮Celeste传统的GPAI完全玩游戏规划教练全教练显式航点流动路径背景树皮隐式航路点???仅执行协助GPAI规划援助的规模21无论是由于认知障碍还是其他原因,这些方法也可以是有用的speedrunner,因为他们试图验证最佳路径的水平。在这种辅助方法中,AI显示沿最佳路径的点,而不是完整的动作序列。这可以用来向玩家显示从哪个平台跳下或在什么点冲向目标,而不会显示一步一步的指示。规划教练如果我们有一条最优路径,那么只需要多花一点我们可以使用这种能力,给我们的球员提示和技巧,以采取哪条道路。当AI意识到玩家偏离最佳路径太多时,或者更有可能的是,当玩家寻求帮助时,AI可以注释玩家第一次离开最佳路径的位置。隐式路径点传递最优路径信息的另一种方式是通过环境。我们可以使用微妙的环境线索,而不是关卡设计师努力工作,引导玩家通过他们的水平。将隐含的方式点与有效的关卡设计相结合,将使这种指导成为动态的,并适应玩家的具体情况。结合援助方法在这种风格中,我们结合了明确的方式点和自由运行的援助.这种组合导致了一种辅助方法,其中自由奔跑辅助仅在玩家处于朝向其目标的最佳路径上时激活。此方法将类似于代替辅助方法而鼓励并奖励玩家采取预期路线的游戏特征在这种风格中,GPAI代理几乎完全接管了游戏。角色所走的路完全由AI决定可以设置辅助,以便玩家只负责角色的跳跃能力这意味着玩家可以通过使用跳转按钮单独参与游戏。这种辅助方法可以帮助运动障碍的玩家通过使用开关访问控制方法来参与游戏。以一个按钮Celeste结束,我们描述了九种抗干扰方法。但并不是所有这些都能在游戏中发挥作用。在本节中,我们并没有详细说明一两种强大的辅助方法,我们的目标是传达我们可以重新利用GPAI来帮助玩家的方法有很多机会和多样性,并展示设计师如何在他们正在开发的游戏中完成这一练习。然而,为了开始测试这些潜在想法的有效性,有必要在上下文中实现它们。实施援助方法停留在构思阶段是不够的,如果目标是用它来模拟不同的援助方法。为了在这个项目中验证我们的解决方案,我们使用了计算漫画(Smith和Mateas 2011)方法。计算漫画夸大了游戏设计过程中的突出方面,而淡化了所有其他点。计算漫画有主张(要快速识别和理解)和过度简化(要被忽视)。通过以下原型,我们:声称玩游戏的AI方法可以用来帮助我们的玩家和原型几个不同的援助实例,以针对不同的挑战。可编程设计和性能限制。更重要的是,我们过度简化了玩家除了所述辅助的限制之外还可以获得辅助为了将我们的援助方法付诸实践,我们建立在Andre'Cardoso在Unity 1中重新创建Celeste的开源代码基础上此实现使用默认的Unity物理引擎来移动角色。受(To-gelius et al. 2013)的启发我们用一个七维的状态描述来参数化游戏空间:角色的x和y位置,角色的x和y速度,以及表示角色是否可以跳跃、冲刺和行走的双标记。在这个空间中,我们使用walk、jump和dash动作来进行搜索。我们使用了一个简单的欧几里得距离启发式之间的球员为了运行实际的搜索,我们实例化了一个单独的Unity物理场景,我们可以手动将物理时间步长设置得更小。我们还实现了模糊瓦片匹配,这使我们能够在可接受的时间范围内更有效地进行搜索利用这种能力,我们实现了两种已发现的辅助方法:Ghost(帮助规划挑战)和Move(移动单击以协助解决执行难题。Ghost实现详细信息与幽灵(图2)辅助方法,玩家按P键开始搜索。当搜索完成后,一个带有灰度精灵的角色副本(又名幽灵)将直接到达目标。Ghost会在不直接与玩家互动的情况下显示最佳路径。因此,幽灵作为一个指南,而不带走球员的代理。我们意识到Celeste已经以简单的方式使用了类似的技术。而不是做一个从玩家的位置到目标的搜索然而,这个视觉指南的局限性在于它依附于那个特定层面中的那个特定位置。例如,如果玩家从游戏中休息了几个月,当他们回来时不记得具体的动作,那么嵌入关卡中的Ghost就不会有帮助。相比之下,获得Ghost帮助探索援助方法的潜在设计在在本节中,我们将描述如何为游戏Celeste的简化克隆实现我们的游戏AI,1https://github.com/mixandjam/Celeste-Movementhttps://youtu.be/E1Ox37N1efQ? t=979··22图2:Ghost规划阻力的实现。当一个玩家请求帮助时,我们会生成一个玩家的副本,它会采取必要的行动来达到目标。玩家必须重复这些动作。图3:我们实现的点击移动exactionassistance.玩家点击半径内的任何地方,AI通过将玩家角色移动到目标位置来处理执行挑战。方法帮助引导玩家,而不管他们在游戏中的进度如何。虽然这种援助似乎是有效的,但不清楚使用这种援助的限制是什么,或者使用这种援助是否应该首先受到限制。移动到单击实现详细信息在实施“点击移动”辅助方法时,我们决定了要搜索的自动移动的最大距离在这个实现中,我们希望玩家点击他们想要采取的路径,因此,我们决定限制AI活动的半径然而,重要的是要注意,这是这种辅助模式的一种可能的为了使用我们的辅助方法,玩家在一个小半径内点击,让AI找到那里的路径。点击移动创造了一个循环,玩家点击他们想移动的地方,等待AI采取所需的行动,然后找到他们想到达的下一个位置这种循环导致了更交错的游戏体验。有时玩家会尝试移动但是这个平台会在点击半径之外当玩家点击最近的点时,通常在空中,代理人会在玩家点击下一个点之前到达该点并摔倒讨论和今后的工作实施援助方法向我们表明,在GPAI援助方法可以被称为选修之前,需要回答几个进一步的研究问题:首先,仅仅选择援助方法是不够的,必须更多地考虑实施细节。虽然我们对Ghost辅助方法的实现似乎已经达到了它的目的,但Click to Move的初始设计从游戏体验中减去了。一个迭代的过程,微调的局限性和优势的方法是至关重要的。在设计GPAI驱动的援助方法时,最佳实践是什么?第二,需要更全面地研究如何设计最有效的方式来采用这些援助方法。Anderson et al.发现,取决于游戏的复杂性,增加一个帮助按钮可能会损害参与度(安德森等人)。2012年)。目前还不完全清楚将这些辅助方法锁定在选项菜单后面是否是最佳选择,或者是否有任何方法可以在不越界的情况下主动识别和建议辅助方法。向玩家介绍GPAI驱动的辅助方法的最有效方法是什么?最后,还需要进行实证评估 这些不同类型的辅助对玩家体验的影响虽然辅助模式在总体上得到了使用者的积极认可,但重要的是要测试增加的复杂性和多样性的辅助方法是否真的转化为增强的游戏体验,并使游戏更容易获得。GPAI驱动的特定辅助方法在改善游戏体验方面有多有效?结论在本文中,我们描述了如何重新利用GPAI功能来帮助玩家提高游戏体验并帮助游戏更具包容性。为了帮助构思辅助方法,我们提出了一个有两个步骤的设计练习:首先,我们建议使用失败分类法来发现游戏中存在的挑战类型其次,我们展示了如何使用这些类型的挑战,划定辅助方法的设计空间。然后,我们将此设计练习应用于Celeste,以生成几种辅助方法。我们实现了两个发现的方法,Ghost和Click to Move,以进一步探索这个过程。通过我们的实施,我们发现了几个额外的研究问题,这些问题必须在GPAI驱动的援助方法被确认为有效之前得到回答我们相信这一研究方向将进一步探讨如何利用GPAI为玩家体验服务我们希望将GPAI特工打造成支持玩家的伙伴,而不是敌对的敌人,这将有助于使视频游戏更具包容性。23引用Abd Algfoor,Z.;苏纳尔湾S.的; Kolivand,H. 2015.机器人和视频游戏路径搜索技术的综合研究2015年国际计算机游戏技术杂志。Andersen,E.; O'Rourke,E.; Liu,Y. E.的; Snider,R.;和其他人。2012.教程对不同复杂度游戏的影响。会议记录。Aytemiz,B.,和Smith,A. M.即将到来。第15届数字游戏。Badia , A. P 的 ; Piot , B.; Kapturowski , S.;Sprechmann,P.; Vitvitskyi,A.; Guo,D.;和Blundell,C. 2020.代理57:超越了atari人类基准。Bakkes , S. C. J. 道 : Spronck , P. H. M.; 和 vanLankveld,G. 2012.视频游戏玩家行为建模。好的。Comput. 3(3):71-79。伯纳角,澳-地e. a. 2019. Dota 2的大规模深度学习。布朗,N.,Sandholm,T. 2019.多人扑克的超人AI。Science365(6456):885-890.Campbell,M.; Hoane,A. J.道:和Hsu,F.- H. 2002.深蓝色。第内特尔134(1):57-83。Case,N.2018年如何成为半人马。设计与科学杂志。Cheung,G. K.的; Zimmermann,T.;和Nagappan,N.2014.第一个小时的体验:最初的游戏如何吸引(或失去 ) 新 玩 家 。 InACM SIGCHI symposium on HCI inplay,57-66. dl.acm.org.孔萨尔沃湾2009. 作弊:在视频游戏中获得优势。麻省理工学院出版社.Cox,A.; Cairns,P.; Shah,P.; Carroll,M. 2012.不是做,而是思考:挑战在游戏体验中的作用在SIGCHI计算机系统中人为因素会议的会议记录中,CHI'12,79-88。美国纽约州纽约市:计算机协会。deVassal,T.高级国际象棋http://www.ficgs.com/wikien-advanced-chess.html 。 检 索 日期:2020-6-2。费尔南德斯湖,加-地五、卡斯塔纽角D.的;和Jacobi,R.P. 2018.大型多人在线游戏的游戏分析研究。2018年第17 届 巴 西 计 算 机 游 戏 和 数 字 娱 乐 研 讨 会(SBGames),21福特斯河P. M. e. a. 2017.游戏可访问性评估方法:文献调查。在HCI中的Universal Access。设计和开发的方法和途径,182。Holmes,K.2018年不匹配:包容性如何影响设计。麻省理工学院出版社.Hooshyar,D.; Youse fil,M.;和Lim,H. 2018.游戏玩家建 模 的 数 据 驱 动 方 法 : 系 统 性 文 献 综 述 。 ACMComputing Surveys(CSUR)50(6):90:1-90:19.卡斯帕罗夫湾2017.不要害怕智能机器。和他们一起工作克莱佩克, P.2019.的 小 但 重要 更改https://www.vice.com/enus/article/43kadm/celeste-assist-mode-change-and-accessibility.访问时间:2020-5-8。克拉科夫, 五、 和 植里, J. e. a.2020.规格化游戏:人工智能独创性的知识产权方面。https://deepmind.com/blog/article/Specification-gaming-the-speakip-side-of-AI-ingenuity.访问时间:2020-5-18。库切拉湾2017.什么时候排除是有效的设计选择?https://www.polygon.com/2017/10/4/16422060/cuphead-difficulty-exclusion.检索日期:2020-6-2。Lebowitz,J.,和Klug,C. 2012. 视频游戏的互动故事。泰勒和弗朗西斯。Lehman,J. e. a. 2018.数字进化的惊人创造力:来自进化计算和人工生命研究社区的轶事集。Liu,Y. 2018. 残疾玩家:电子游戏中的无障碍环境。博士论文,卡尔顿大学。马特做游戏。2018.塞莱斯特Windows PC版本。Petralito,S. e. a. 2017.死亡的好理由:化身死亡和高挑战如何实现积极的体验。在2017年CHI计算机系统人为因素会议的会议记录中,CHIPitaru,A. 2008. E是给每个人的:包容性游戏设计。麦克阿瑟基金会数字媒体和学习倡议。Samuel,A.L. 一九五九年机器学习中使用跳棋游戏的一些研究IBM J. Res. Dev. 3(3):210-229。施瓦布湾2011.图灵发脾气:AI开发者咆哮!游戏开发者大会。Segal , J. 2020. 介 绍 鲍 勃 的 朋 友 。 https : //articles.hsreplay.net/2020/04/24/introducing-bobs-buddy/.已完成:2020-6-2。塞斯·考斯特。2020.宽恕机制:读取响应式游戏的思想。Shaker,N.;Togelius,J.;Nelson,M.J. 2016年。游戏中的程序化内容生成。施普林格山Silver,D.,和Huang,A. e. a. 2016.用深度神经网络和树搜索掌握围棋游戏。Nature529(7587):484-489.史密斯,A. M.,和Mateas,M. 2011.计算游戏:用AI探索游戏设计过程在第七届AIIDE会议里。特绍罗湾1995.时间差分学习和TD- Gammon。Commun.ACM38(3):58-68。汤普森角,澳-地2019. Sekiro:游戏中的可访问性远不止Togelius,J.; Shaker,N.; Karakovskiy,S.;和扬纳卡基斯G. N. 2013. 2009-2012年马里奥人工智能锦标赛。AIMagazine34(3):89-92.Vinyals,O.,Babuschkin,I. e. a. 2019.星际争霸2中的大师级使用多智能体强化学习。Nature575(7782):350-354.Yannakakis,G. N.,和Togelius,J. 2018。人工智能与游戏施普林格山
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- Aspose资源包:转PDF无水印学习工具
- Go语言控制台输入输出操作教程
- 红外遥控报警器原理及应用详解下载
- 控制卷筒纸侧面位置的先进装置技术解析
- 易语言加解密例程源码详解与实践
- SpringMVC客户管理系统:Hibernate与Bootstrap集成实践
- 深入理解JavaScript Set与WeakSet的使用
- 深入解析接收存储及发送装置的广播技术方法
- zyString模块1.0源码公开-易语言编程利器
- Android记分板UI设计:SimpleScoreboard的简洁与高效
- 量子网格列设置存储组件:开源解决方案
- 全面技术源码合集:CcVita Php Check v1.1
- 中军创易语言抢购软件:付款功能解析
- Python手动实现图像滤波教程
- MATLAB源代码实现基于DFT的量子传输分析
- 开源程序Hukoch.exe:简化食谱管理与导入功能
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功