没有合适的资源?快使用搜索试试~ 我知道了~
意识和人工Phronēsis在AI伦理推理中约翰·P 苏林Sonoma State University,Rohnert Park CA,美国johnsullins.com抽象的。Phronēsis是一个哲学术语,指有意识的伦理理性或实践智慧。有人认为,在大多数成年人中,这种能力在高层次的道德推理中起着主要作用。如果我们希望人工智能系统能够以一种功能上等同于有能力的人类的方式对伦理问题进行推理,那么我们就需要创造出在与人类代理的互动中显示phronēsis或实践智慧的机器。这里有人认为,这是人工智能伦理的最高目标,但这不会是一个微不足道的问题,因为它可能首先需要解决人工意识的问题。实现人工phronēsis是必要的,因为为了在人工智能或机器人系统的用户中建立道德信任,需要道德和伦理能力。关键词:人工Phronēsis,AI意识,AI伦理,信任AI,信任机器人。1Phronēsis,Artificial and Otherwise一方面,意识是最容易体验的东西,因为意识对于丰富的、完全经验的感知是必要的,我们人类通常拥有这种感知。因此,绝大多数阅读本文的人可能是有意识的(至少在某些时候),并且完全意识到有意识是什么样的另一方面,意识是一种非常难以完全解释的现象,即使在我们最近的历史上已经有几十年的英勇尝试,也很难让计算机工程师建造一台有意识的机器由于意识研究的状况仍处于探索状态,我试图避免在我早期关于人工智能和机器人伦理学的作品中提及它。然而,在本文中,我将这样做,尽管是以谨慎的方式。在人工智能和机器人伦理学中,可以做很多工作,这些工作根本不需要所讨论的系统有任何意识我想在这里讨论的人工代理人有三个层次,根据他们的道德能力或缺乏道德能力来分类:伦理影响代理(EIA),人工伦理代理(AEA)和人工道德代理(AMA)。2伦理影响剂(EIA)不需要明确的意识声明来做他们所做的事情这些系统是值得注意的,只有在他们的操作表现出一定的自主性,并有能力影响人类代理人的方式,有道德的关注。例如,一辆自动驾驶汽车在其自动驾驶操作过程中,在事故中撞击并杀死了一名行人(例如2018年3月系统的行动是由其传感器和执行器根据程序工作产生的,但它对手头的情况没有有意识的经验,事故发生后没有道德悔恨,当事件发生时没有情绪反应。虽然我们可能会对自动驾驶汽车的安全性提出很多问题,但没有人在有意识的道德意义上指责汽车本身这种道德谴责和所有法律责任问题都留给了车内的紧急备用司机,以及制造汽车并在公共道路上测试[1]因此,在处理如何从伦理上设计和部署环境影响评估的问题时,没有特别的必要提到人工道德代理人(AEA)是下一步,与EIA的不同之处仅在于它们在操作中有明确的道德考虑。在我们前面的例子的基础上,一辆自动驾驶汽车被编程为在决定是否让另一辆汽车的乘员或其自己的乘员在不可避免的碰撞期间冒更大的风险时考虑一些道德价值计算,这将是一个AEA。乍一看,人们可能会认为AEA有点搅浑了水,机器本身可能应该受到道德谴责或法律责任,但这只是一个光的把戏。任何不利后果的道德指责和责任仍然完全由建造、部署、许可和操作车辆的人类代理人承担。关键是,AEA从未自己选择自己的道德标准,而是由人类代理人选择和编程,因此,他们对他们设计和/或部署的系统所做的任何道德决定承担任何责任或责任机器对基于其操作而发生的任何事件都没有意识,即使是那些在外界看来似乎是有意识的道德选择的事件。只有当我们到达人工道德主体(AMA)的水平时,意识才可能发挥重要作用。AMA将有能力选择适合当前情况的道德行为,其方式表现出一种实践推理的形式,类似于在大多数人类代理中发现的胜任道德推理中所看到的。这意味着系统要么是一个有意识的道德主体,要么在功能上等同于道德主体。另一种说法是声称系统显示人工Phronēsis(AP)。当然,这个概念需要更多的解释,这就是本文的其余部分将讨论的内容。然而,在讨论的这一点上,我们可以推测,虽然意识不是EIA所必需的,也不是许多类型的人工伦理推理代理AEA所必需的,但它可能在更复杂的AMA的发展中发挥重要作用。1这份名单并不意味着详尽无遗,允许该系统使用公共道路的政治决策者也应该受到审查,以及参与导致这起事故的事件链的许多其他人3在复杂的社会环境中与人类互动时更有用,这种环境往往受到不断变化的道德规范的限制。Phronēsis是一个许多人在哲学之外不熟悉的术语,这个词似乎有点令人不快。然而,如果一个人Phronēsis有一个古老的谱系,主要是通过美德伦理学的传统,作为能够“生活得很好”的技能而流传下来的。智能系统的设计者不一定需要成为美德伦理领域的专家,但已经表明,对核心概念的一些熟悉可以从设计者本人和正在设计的伦理推理系统的水平上增强设计过程[2]。简而言之,phronēsis指的是一个有意识的道德主体在面临困难的道德或伦理问题时所使用的实践智慧鉴于伦理问题总是新颖的,没有一套预先配置的答案足以解决问题,这意味着学习和创造力是phronētic agent的标志。“没有一般的规则/程序/算法来辨别哪些价值观、原则、规范、方法适用;相反,这些必须首先被识别和判断为相关的,然后我们才能继续进行任何关于该做什么的推论/结论”[3]。考虑到一个或多个伦理思想流派,可能会成功地设计AEA人们可能会设计一个自主系统,主要基于应用功利主义或康德主义的计算或规则、人类道德心理模型、人类宗教传统,甚至基于艾萨克·阿西莫夫(Isaak Asimov)开发的机器人三定律来做出道德决策。[2]虽然人们可以使用这些方法中的任何一种在某些情况下可能有用的方法来制作AEA,但它们都远远达不到人工phronēsis的AMA。“For the virtue of practical wisdom or这是可以理解的,系统设计者要么想完全忽略道德推理,试图避免甚至环境影响评估的建设。稍微有点冒险的人会尝试应用更容易计算的基于规则的伦理系统,这可能会导致有用的AEA。为什么要参与需要人工phronēsis才能正常工作的AMA?要在这方面取得成功,可能需要解决人工意识、人工情感、机器化身等方面的问题。所有这些都可能是计算上难以处理的。让我们来看看用人工phronēsis构建AMA这个更困难的问题可能会有什么回报。2所有这些选项的介绍性描述和更多内容可以在[4]中找到。41.1人工Phronēsis在自动伦理推理人工Phronēsis(AP)主张phronēsis或实践智慧在高层次的道德推理中起着主要作用,并进一步提出了一个问题,即phronēsis的功能等同物是否可以被编程到机器中。如果我们希望人工智能系统能够以一种功能上等同于有能力的人类的方式对伦理问题进行推理,那么我们就需要创造出在与人类代理的互动中展示phronēsis或实践智慧的机器。这意味着AP是AI伦理可能实现的最高目标之一。此外,这将不是一个微不足道的问题,因为不是所有的人类代理都擅长phronētically推理,所以如果我们试图将这种技能编程到机器中,我们会对机器提出很多要求除此之外,最困难的问题是,实现AP可能首先需要解决人工意识的问题,因为phronēsis似乎需要有意识的思考和行动才能正确地完成。即便如此,AP的实现也是必要的,因为为了在人工智能或机器人系统的用户与系统本身之间建立道德信任,需要道德和伦理能力实现这一目标将使人类能够舒适地居住在未来,而不会受到自主系统所做决定的压迫。可能会影响他们的生活。1.2人工Phronēsis宣言AP是一个新概念,但它正在获得一些关注。以下是一些陈述,以帮助定义这个新的,跨学科的研究领域。AP声称phronēsis或实践智慧在高层次的道德推理中起着主要作用,并进一步提出了一个问题,即phronēsis的功能等同物是否可以被编程到机器中。AP是创建AMA的必要能力,然而该理论对机器实现这种能力的可能性是不可知的,但它确实声称实现AP是机器成为人类等同的道德代理人所必需的。AP受到古典伦理学传统著作的影响,但它不仅限于这些来源。AP并不试图完全描述古典伦理学中所描述的phronēsisAP并不试图在理论或神经学水平上对人类的phronēsis进行全面的描述然而,这方面的任何进展都将是受欢迎的帮助。AP并不是声称机器可以成为完美的道德代理人。首先,道德相反,AP试图描述一个有意设计的计算系统,即使在需要创造性解决方案的新情况下,该系统也能与其他人类和人工代理进行道德互动AP将在多个模态中实现,并且最有可能以进化机器学习的方式实现。美联社承认,机器可能只能在相当长的一段时间内模拟道德判断,而且创造一个看似道德的拟像的危险永远存在。5这意味着AP设置了一个非常高的标准来判断机器的道德推理和行为。这是一个最终目标,但在可预见的未来,真实的系统将远远达不到这一目标。1.3杜威论Phronēsis在意识思维如果phronēsis仅仅是一个来自古代哲学的概念,那么它对人工智能项目的价值将是但它随着时间的推移而演变,一个非常有趣的概念发展来自哲学家约翰杜威[4] [5] [6]。古代哲学家似乎用phronēsis来表示一种只有最高智慧的哲学家才拥有的能力,而杜威则不同,他把phronēsis的概念大大扩展到了一个在所有推理方式中都起着核心作用的概念,因为一旦你试图应用任何科学或技能,你就必然会进入社会领域,并在那里成功地运作需要phronēsis。如果他是正确的,那么phronēsis是使我们许多人成为有能力、有意识和有良心的人的一部分。因此,AP要么是创造有意识机器的必要条件,要么是相反。2人工智能和机器人代理信任和人工智能和机器人代理是它自己复杂的话题,但在这里让我们将讨论限制在phronētic信任上。我们的AP代理人将需要说服我们,他们在与我们打交道时会考虑到我们的道德品质,并会做出一致的决定我们互相学习如何最好地发展自己的道德品质,因此这些机器也需要参与这一重要的社会过程在某种意义上,他们必须能够充当phronēmon,或道德教师。在与我们的机器的这种关系中,我们必须有理由相信我们信任的机器如果没有一个足够发达的AP,那么这将是不可能的,也没有充分的理由试图建立人工道德代理,我们将需要将人工智能的应用限制在没有道德影响的应用上。2.1我们如何在道德上信任人工智能和机器人系统?Mark Coeckelbergh [8]认为,我们至少可以从两种不同的方式来看待人工智能和机器人系统中的信任。第一种是以“契约主义-个人主义”的这些关系可能或多或少有些拘谨,但它们是我们社会中长期存在的做法。Taddeo和Floridi已经开发了一些细微差别,这些细微差别需要考虑,因为这些系统变得更加胜任,我们对它们的信任变得更加有意义[9],[10]。科克尔伯格的第二类是现象学-社会方法。这是一种人类彼此之间通常会进入的深度信任关系6发展社会纽带,建立深厚而有意义的关系。Coeckelbergh怀疑这可以在人工智能和机器人系统中以任何不是“虚拟信任”或“准信任”的方式实现虽然我们可能会被愚弄,以为我们与人工智能或机器人系统处于道德信任关系中,但事实上我们 不 是 , 在 某 些 情 况 下 , 这 可 能 对 不 敏 感 的 人 类 代 理 人 造 成 危 险 。Grodzinsky,Miller和Wolf提供了一种系统,该系统可以通过开发一种名为“TRUST”的新概念来缓解在这里,我们清楚地定义了一个新的机器信任系统,它属于一个新的标题类别,其中还包含了我们已经发展得很好的人与人之间的信任和人与公司之间的信任等概念只有当我们希望机器加入我们的现象社会信任时,我们才真正需要AP。在那个层次上,我们将与他们一起进入一个新的社会。这是一个非常有趣的可能性,但它也是一个伴随着双向权利和责任的可能性,所以我们应该继续研究,如果机器意识在技术上是不可行的,那么它就是我们根本无法接近的东西。引用1. 亚里士多德:尼各马可伦理学。Irwin,T. Hackett,Indianapolis.2. Vallor,S.:技术与美德:一个值得期待的未来的哲学指南。牛津大学出版社,(2016).3. Ess,C.:数字媒体伦理 第25页。 Polity Press,(2009).4. Anderson,M. Anderson,S.:Machine Ethics,Cambridge University Press,(2011).5. Dewey,J.:达尔文主义对哲学的影响。在:希克曼,L.,Alexander,T.(eds.)。《杜威精要》,卷一。页39-45.北京大学出版社.6. Dewey,J.:进化与伦理在:希克曼,L.,Alexander,T.(eds.)。《杜威选集》第二卷页225-236.北京大学出版社.7. Rogers,M. L.:杜威哲学中的行动与探究。查尔斯S. Pierce Society 43(1),90-115(2007).8. Coeckelbergh , M. : “ 我 们 能 相 信 机 器 人 吗 ? ”” 伦 理 与 信 息 技 术 , 14 : 53-60(2012)。9. Taddeo,M.:在人工代理中建立信任模型,分析电子信任的第一步。心智机器20,no. 2:243-257(2010)。10. Taddeo,M.,Floridi,L.:11. Grodzinsky,F. Miller,K. Wolf,M.:开发值得信赖的人工代理:“你会从这个人造代理商那里买二手车吗?”伦理学和信息技术,卷。13,No. 1,17-27(2011年3月),
下载后可阅读完整内容,剩余1页未读,立即下载
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- 京瓷TASKalfa系列维修手册:安全与操作指南
- 小波变换在视频压缩中的应用
- Microsoft OfficeXP详解:WordXP、ExcelXP和PowerPointXP
- 雀巢在线媒介投放策划:门户网站与广告效果分析
- 用友NC-V56供应链功能升级详解(84页)
- 计算机病毒与防御策略探索
- 企业网NAT技术实践:2022年部署互联网出口策略
- 软件测试面试必备:概念、原则与常见问题解析
- 2022年Windows IIS服务器内外网配置详解与Serv-U FTP服务器安装
- 中国联通:企业级ICT转型与创新实践
- C#图形图像编程深入解析:GDI+与多媒体应用
- Xilinx AXI Interconnect v2.1用户指南
- DIY编程电缆全攻略:接口类型与自制指南
- 电脑维护与硬盘数据恢复指南
- 计算机网络技术专业剖析:人才培养与改革
- 量化多因子指数增强策略:微观视角的实证分析
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)