没有合适的资源?快使用搜索试试~ 我知道了~
计算机在人类行为141(2023)107617在以人为中心的人工智能中,人在哪里开发人员的见解优先事项和用户体验William J.宾利a,*,凯特琳柯蒂斯b,1,史蒂芬洛基b, 1,阿丽娜比亚科夫斯基 c,妮可吉莱斯皮 b,S. Alexander Haslam a,Ryan K.L. Ko c,Niklas Steffens a,Janet Wiles c,Peter Worthy ca澳大利亚昆士兰大学心理学院b澳大利亚昆士兰大学商学院c澳大利亚昆士兰大学信息技术与电气工程学院A R T I C L EI N FO关键词:人工智能以人为本的AI用户体验开发者人类需求A B S T R A C T以人为中心的人工智能(HCAI)旨在将人工智能开发的重点从技术转移到人身上。然而,目前尚不清楚现有的HCAI原则和做法是否足以实现这一目标。为了探索HCAI是否足够关注人,我们对AI开发人员进行了定性调查(N=75)和用户(N=130),并对他们的回答进行主题内容分析,以了解不同的优先事项和经验。通过这一点,我们能够将HCAI在原则(指导方针和框架)和实践(开发人员优先级)与用户体验进行比较。我们发现,人工智能的社会影响是积极用户体验的一个决定性特征,但这对开发人员来说并不是一个优先事项此外,我们的研究结果表明,从用户的角度改进AI功能是使其以人为本的重要组成部分。事实上,用户更关心的是被AI理解,而不是理解AI。根据HCAI的指导方针,开发人员关注道德、隐私和安全等问题,展示了然而,我们的研究结果表明,更多地关注人们在生活中需要什么是HCAI真正以人为本所必需的。1. 介绍结合人工智能(AI)的系统已经成为许多人生活中不可分割的一部分,对用户、其他人和社会都有积极和消极的影响(Oppermann et al.,2019年)。人工智能系统被用于广泛的应用,如连接人(Willis,2018),提供娱乐(2017 Plummer),以及帮助创建和分发疫苗(2021 Greig)。然而,在系统中嵌入人工智能可能会产生深远的负面影响(Burrell &Fourcade,2021; Scheuerman等人, 2020)-正如人们在面部识别软件的基础上被错误地拒绝失业救济(2021 Svaldi),由于无法控制的情况而被性能算法解雇(2021 Soper),或者他们的个人信息被聊天机器人泄露(Jang,2021)。为了反映人工智能在人们生活中的重要性和整合性,人们转向以人为本的人工智能(HCAI),其假定目标是将用户而不是技术置于人工智能开发的中心(Shneiderman,2020a; 2020 b)。然而,HCAI指南倾向于关注广泛的概念,如人类价值观,道德和隐私,这些概念 可 能 过 于 抽 象 , 因 此 难 以 在 实 践 中 实 施 ( Mittelstadt , 2019;Shneiderman,2021)。更重要的是,目前还不清楚这些指导方针以及尝试应用它们应该遵循的实践在多大程度上是真正以人为本的,即关注人工智能如何影响人们。为了探索HCAI在什么意义上和在多大程度上是以人为本的,本文试图在原则上比较HCAI(即,如现有指南中所述)和实践中(即,正如自我报告的开发人员优先级所证明的那样)与人工智能用户的体验1.1. HCAI理论、原则和实践正如Shneiderman(2020 a,2020 b)所描述的,HCAI将人类置于AI核心的驱动力代表了“第二次哥白尼革命”。这具体意味着什么还存在一些争议。对于Shneiderman(2020 b,第2页),HCAI关注人类体验,满足和需求,目的是“放大,增强,* 通讯作者。 布里斯班,昆士兰州,4072,澳大利亚。电子邮件地址:w. uq.edu.au(W. J.Bingley)。1 这些作者都做出了同样的贡献。https://doi.org/10.1016/j.chb.2022.107617接收日期:2022年8月5日;接收日期:2022年11月5日;接受日期:2022年12月16日2022年12月17日在线提供0747-5632/© 2022作者。出版社:Elsevier Ltd这是CC BY许可下的开放获取文章(http://creativecommons.org/licenses/by/4.0/)。目录可在ScienceDirect人类行为期刊主页:www.elsevier.com/locate/comphumbehW.J. Bingley等人计算机在人类行为141(2023)1076172==--=以使系统可靠、安全和值得信赖的方式提高人的绩效“,以便“支持人的自我效能,鼓励创造力,明确责任,促进社会参与”。然而,其他HCAI研究人员以不同的方式解释了“以人为中心”的含义(Kaluarachchi等人,2021; Wilkens等人,2021年)。例如,Gillies et al.(2016)专注于算法训练和开发中的人类工作,而Yang et al.(2021)强调人工智能的社会影响。此外,对于许多研究人员来说,HCAI的一个关键特征是AI应该是透明和可解释的(Ehsan等人,2021; Riedl,2019; Sperrle等人,2021年)。我们认为,HCAI的所有这些概念化都是从根本上将人类(广义上理解)视为人工智能开发的主要焦点,并且在很大程度上取决于应用这种方法的背景。为了使这些发展正规化,已经被政府、组织和研究人员提出来将HCAI的理想转化为实践(Jobin等人,2019年)。许多政府已经提出了正式的HCAI指南(Zhang等人,2021年)。例如,欧盟列出了人工智能系统应该满足的七个关键要求,以使其值得信赖,包括透明,问责制以及促进社会和环境福祉(欧盟委员会,2019年)。同样,澳大利亚有一个人工智能伦理框架,包括公平、以人为本的价值观和问责制等原则(澳大利亚政府,2021年),而中国发布了“北京人工智能原则”,包括行善、负责任和包容的原则(Zhang et al.,2021年)。在私营公司中,微软在制定道德人工智能指南方 面处 于领 先地 位(Amershi 等人 , 2019; Madaio 等人 , 2020;Microsoft Microsoft Corporation,2021)。例如,微软的道德人工智能原则强调公平性,包容性,可靠性,安全性,透明度,隐私性,安全性和问责制(Shaw,2019)。最后,各种研究人员和研究团队提出了人工智能的指导方针。例如,Floridi et al.(2018)提供了一个名为AI4People的道德框架,其中包含了慈善,正义和可解释性等原则。不幸的是,尽管有了这些指导方针,但HCAI的理想已被证明很难实现付 诸 实 践 ( Oppermann 等 人 , 2019; Shneiderman , 2020 b;Winfield&Jirotka,2018)。谈到这一点,Shneiderman(2021)认为,虽然道德准则是朝着正确方向迈出的一步,但它们往往过于模糊,对软件工程师没有帮助。同样,Mittel-stadt(2019)批评人工智能伦理包含模糊的原则和崇高的价值陈述,缺乏制定改进实践的具体建议所需的细节和精确性。因此,尚不清楚HCAI原则上是否反映在AI开发人员的实践中。1.2. AI用户体验HCAI的一个更广泛的问题是,制定更具体的指导方针(例如,微软人工智能公平清单)将无法完全涵盖使人工智能真正以人为本所需的转变。相反,为了关注人,HCAI方法不仅要考虑价值观,还要考虑需求、经验以及对组织和社会的影响。其中一种方法是了解使用人工智能系统的人的体验(Alvarado Waern,2018&;Shneiderman,2020 b)。事实上,关于人工智能系统用户体验的文献越来越多,研究人员通常采取两种方法之一:(1)研究特定类型的人工智能;或(2)在特定背景下研究人 工 智 能 。 前 一 种 方 法 的 例 子 包 括 用 户 体 验 与 个 人 智 能 代 理(Moussawi,2018),会话代理(X。Yang&Aurisicchio,2021)和智能家居(Marikyan等人,2019年)。后一种方法倾向于关注特定的群体,例如医疗从业者(Maier等人,2019),客户(Ameen等人,2021),或新手用户(Krening &Feigh,2018)。然而,虽然这些研究为这些特定领域提供了信息,但这些研究的结果对于评估HCAI是否充分符合AI用户的需求这是因为HCAI框架和指南通常旨在适用于所有人,跨越所有类型的AI系统(Amershi等人,2019; Huang等人,2021; Jobin等人,2019年)。换句话说,目前尚不清楚现有人工智能用户体验研究的结果是否可以推广到更广泛地理解和评估HCAI1.3. 本研究HCAI目前包括一系列指导方针、框架和原则,但缺乏经验证据来证明人工智能开发人员在多大程度上利用了这些指导方针、框架和原则,以及HCAI在原则上和实践中是否符合用户的需求。因此,在充分理解使用AI系统的人如何感知这些并受其影响的意义上,HCAI在多大程度上可以被认为是真正的“以人为本”还不清楚此外,无论用户体验是否反映在HCAI原则、理论和指导方针中,这些高级值目前可能没有被开发者以允许他们解决用户需求的方式利用。简而言之,HCAI领域必须意识到它与制造和使用AI系统的人的联系程度。在本研究中,我们对这一主题进行了实证研究,旨在解决三个关键研究问题:RQ 1. 开发人员的优先级是否与用户体验一致?RQ 2.开发人员的优先级原则上是否与HCAI一致(即,(三)指导原则、指导方针和指导方针)?RQ 3.广义的HCAI(包括原则上的HCAI和开发人员的优先级)是否与用户体验一致2. 方法为了解决我们的研究问题,我们对AI用户和开发人员进行了定性调查。对调查的答复进行了专题内容分析,使用的编码方案是根据答复的模式归纳创建的,然后迭代,最后用于对所有答复进行分类。由此,我们能够计算出每个组的响应在特定代码(代表数据集中的主题)中的比例,从而使我们能够在用户和开发人员之间进行比较2.1. 参与者我们使用几个组的便利抽样来捕获AI系统的一系列用户和开发人员。具体而言,通过在线众包网站、大学生研究参与计划和研究人员网络向205名参与者分发了一份调查该样本量与HCAI文献中的类似研究相当(例如,Maier等人,2019; Moussawi,2018)。用户包括从多产学术组织招募的50名美国参与者(M年龄=32,58%为女性),75名心理学本科生(M年龄20,77%为女性),10名网络安全研究生(M年龄27人,17%为女性)。开发人员包括通过研究团队的网络招募的12名技术专业人员(M年龄= 41,18%女性),36名大学生人机交互(HCI)学生(M年龄= 25,46%女性),18名软件工程本科生(M年龄= 22,28%女性)和4名机器学习本科生(M年龄= 22,28%女性)。22人,50%为女性)。所有的学生参与者都是从澳大利亚的一所大学招募的。本科心理学学生获得课程学分的参与,而其他学生没有得到补偿。多产学术是一个在线平台,通常用于招募参与者进行行为研究(Palan &Schitter,2018)。通过这个平台招募的参与者获得了2英镑的报酬。技术专业人员没有因参与而获得补偿。这些小组一起提供了一个用户和开发人员的横截面W.J. Bingley等人计算机在人类行为141(2023)1076173=来自不同的国家、年龄组、学术领域和职业阶段。检查用户组是否相对较少参与表1将开发人员优先考虑的前10个主题与用户体验进行比较。AI开发比开发者群体,我们问参与者他们目前是否在科技行业工作,开发人员(重要考虑因素)用户(良好的体验)用户(不良体验)未来这表明他们比用户更多地参与技术开发,开发人员表示他们目前在技术领域工作的可能性是用户的两倍(31.4%对13.3%),功能性(31%)社会影响(42%)功能性(39%)道德(20%)功能(35%)不确定(21%)社会影响(20%)不确定(18%)了解用户可能会说他们打算在未来从事科技工作(74%,数据(13%)用户体验(16%)24.4%),这表明他们更多地参与了社会影响(13%)(10%)技术比用户创建过程(11%)理解用户(7%)用户-AI交互(11%)2.2. 调查项目该调查包括以下开放式问题:“你在人工智能方面的良好体验是什么?”是什么让它好呢?’ 为什么不好?(仅限用户);以及“设计人工智能时需要考虑哪些重要因素?”(仅限开发人员)。调查还包括人口统计措施,以及本文件没有分析的其他项目的数量。2.3. 编码在数据收集之后,主要作者分析了参与者使用这组主题作为代码,30%的数据集由研究团队的三名成员编码,10%由所有编码员编码,20%由唯一编码。评价者间可靠性使用所有编码者使用Light即κ=0.34。这代表了一个&”在此之后,编码器举行了 举行了一次会议,讨论差异并改进编码方案,从而修订了39个编码的清单。从剩下的70%未编码的数据集中,相同的三个编码器然后用新的编码方案编码另外的10%。该阶段的平均内部可靠性为κ0.67,代表&鉴于评估者间可靠性的可接受水平,主要作者随后使用修订后的编码方案(完整码本见补充材料)在NVivo forWindows(版本12.6.1.970)中重新编码完整数据集。这种方法是从“黄金标准/主编码器”方法改编而来的由Syed和Nelson(2015)描述。2.4. 比较使用NVivo和Microsoft E x cel for Windows计算AI用户和开发人员的响应与每个主题相关的百分比。具体来说,主要作者在NVivo中重新编码完整数据集后,我们使用NVivo的编码比较查询功能,为用户和开发者计算每个主题对应的响应数量。然后,我们创建了一个Microsoft EXcel电子表格来计算每组中与每个主题相关的参与者的百分比。该电子表格的副本,其中包括与每个主题有关的每个组的答复数量,可以在补充材料中找到。3. 结果3.1. 开发人员视角和用户体验表1显示了每个问题的前10个主题以及提到每个主题的用户和开发人员的百分比。在下面的段落中,我们解释了最常见的主题(功能和社会影响),包括参与者的反应示例我们还对开发人员之间的一些关键比较隐私(9%)令人印象深刻(7%)用户体验(7%)效率(6%)易于使用(5%)情感(6%)安全(6%)安全(4%)隐私(5%)可理解性(6%)效率(4%)道德(4%)编码(4%)情感(2%)可理解性(4%)优先事项和用户体验方面的这些和其他重要的主题。请参阅补充材料,了解全套主题,包括解释和说明。3.1.1. 功能代码对于“你在AI方面是什么让它变好的?”,相关回答包括:“Alexa。该算法根据你的活动和你喜欢的东西进行调整;谷歌地图,通过准确的时间预测找到好的路线。”;和“[一个有人工智能的机器人]是好的,因为它工作得很好,执行每一项任务都很好”。对于“你对AI有过什么不好的经历?”是什么让它变坏了?”,回答包括:“[在视频游戏中]人工智能往往是不可预测的,比人类对手更糟糕”;“你管。他们的算法坚持要我看政治宣传,我指示他们停止给我看。”;和“我认为Gmail的完整文本功能。 它永远猜不对”。对于“设计AI时需要考虑什么?”的问题回答包括:“它是有用和准确的”;“没有无限循环”;以及“它如何处理设计范围之外的意外输入,以及它的通用性如何。功能性是开发者(31%的回答)和用户(35%的回答是良好的AI体验,39%的回答是糟糕的AI体验)数据集的定义主题。它是负面用户体验中最常见的主题,也是正面用户体验中第二常见的主题。这表明,当涉及到创建良好的体验时,功能对HCAI很重要,但对于避免不良的用户体验来说,功能更重要(W。Xu,2019)。换句话说,采取3.1.2. 社会影响‘Social impact对于“你在AI方面有什么好的经验?是什么让它变好的?”,相关的回应包括:“我发现Siri很有帮助。作为家长,我经常会忙得不可开交。”;“(谷歌/苹果地图上的)交通功能让我可以避开繁忙的地区”;以及“作为一个不太喜欢直接打电话的人,(一个客服聊天机器人)帮了我很多”。对于“你对AI有过什么不好的经历?”是什么让它变坏了?”,回答包括:“自动更正… … 这是人工智能使我的生活更加低效的一个例子。”;“当人工智能试图了解你是谁来提供广告和口袋时,感觉你被利用了,而不是用户”;“我对人工智能的一个糟糕经历是YouTube算法和类似的人工智能。这很糟糕,因为这些人工智能真的很擅长分散我的目标。对于“设计AI时需要考虑什么?”的问题,回答包括:“它是在干扰我的生活还是在帮助我?”;“变革管理以及企业/员工如何对此做出反应”;以及“人工智能将如何W.J. Bingley等人计算机在人类行为141(2023)1076174改变别人的生活相对于用户,开发人员认为在设计人工智能时,社会影响并不那么重要。这对于好的(不仅仅是“不坏”)AI来说尤其如此。具体来说,20%的开发人员认为社会影响力很重要,但它在42%的积极用户体验中发挥了作用。然而,社交影响仅占负面用户体验的13%。社会影响对于积极的用户体验的特别重要性表明,这是AI的一个方面,开发人员和指南应该将其视为HCAI的一个组成部分。3.1.3. 可理解性与理解用户许多HCAI研究人员认为,人工智能应该是不可理解的、可解释的和可理解的(Ehsan等人,2021; Oppermann等人,2019; Riedl,2019;Sperrle等人,2021年)。事实上,这一重点广泛反映在伦理指南中(欧洲委员会,2019年; Floridi 等人,2018; Jobin等人,2019; Shaw,2019)。 然而,我们的研究结果表明,让人工智能变得可理解对于开发人员来说是一个低优先级(6%),并且它是用户体验的一个可忽略不计的特征(积极体验为0%,消极体验为4%)。相反,用户更关心人工智能理解他们,这是7%的积极用户体验和16%的消极用户体验的一个特征。例如,在回答“你对AI有什么好的体验?”是什么让它变好的?”,用户评论说:同样,在回答“你对人工智能有什么不好的经历?”是什么让它变坏了?”,用户评论说:“当他们(聊天机器人)没有正确编程时,就像与一个没有直接倾听或与你交谈的人进行对话。有时因为它是由技术控制的,他们在情感上不敏感,有时你需要它。”;以及“Siri无法理解种族名称并呼叫错误的人”。3.1.4. 道德、隐私和安全开发人员认为道德(20%),隐私(11%)和安全(6%)在设计AI时很重要。有希望的是,这符合人工智能伦理指南的重点(Jobin等人,2019年)。然而,这些主题在开发者的优先级和通过用户体验确定的优先级之间形成了鲜明的对比,用户只偶尔提到隐私(5%)和道德(4%)与负面体验有关。开发人员对道德问题的回应包括:“一些人工智能被发现有种族偏见,这是一个很大的问题。“;“哪些“价值观“可以被烘焙到代表人类价值观的AI中?人工智能如何以合法的方式工作?”。一些开发人员还特别提到了隐私,评论说:“如果AI可以访问我们的Web浏览器或购买记录来做其他事情,例如定向广告,这可能是一个问题......”;“除非允许,否则它不应该侵犯用户的隐私。如果数据不能被去个人化,它必须有一种方法,如果用户要求它,它必须被完全删除而不留下痕迹。”。开发人员偶尔会提到安全性,餐厅),非人形AI辅助(驾驶助理,健康AI,用于在数据丰富的环境中发现异常的AI, Google Home),算法推荐(YouTube ,TikTok,Instagram,在线购物建议,Spotify播放列表),搜索过程(Google搜索,Google反向图像搜索),预测AI(Gmail电子邮件预测,Google搜索预测,Microsoft Office自动更正),其他应用程序或软件功能的AI(乘车应用程序,面部检测和识别,音乐转换应用程序,语音识别,指纹扫描)以及硬件AI(Roomba,救援机器人,特斯拉)。然而,有一些系统没有或可能没有AI组件的例子,例如计算器,自助结账,ATM和虚拟现实系统。4. 讨论我们调查了用户体验和开发人员的优先事项,以探索HCAI(在原则和实践中)是否真正以人为本。我们的主要发现和对HCAI的影响总结在表2中。开发人员的优先级通常与HCAI指南保持一致。例如,开发人员在设计人工智能时将道德、隐私、安全和可理解性视为重要考虑因素,所有这些都在现有指南中占有突出地位(Jobin等人,2019年)。鉴于开发人员样本中的许多参与者都是大学生,令人鼓舞的是新兴开发人员似乎已经内化了这些重要的价值观。开发人员还与现有的指导方针保持一致,因为他们优先考虑人工智能系统的性能这些都是积极和消极用户体验的定义特征。从这个意义上说,开发人员有一种直观的感觉,即使人工智能以人为本的一个关键因素是确保它能为用户提供良好的虽然研究人员已经注意到HCAI中这种扩展的功能概念化的重要性(Shneider-man,2021; W.Xu,2019),HCAI指南进一步强调这一点至关重要,尤其是让它们对开发人员来说看起来直观并我们的研究结果表明,从用户的角度来看,HCAI的功能是至关重要的。此外,我们的研究结果表明,人工智能对用户的影响,人和社会是用户体验的定义特征,特别是积极的体验。然而,虽然开发人员确实优先考虑了社会影响,但他们的社会影响程度低于用户。有趣的是,德韦洛珀认为社会影响和道德同样重要。这与现有的HCAI指南一致,该指南倾向于根据广泛的价值观和社会层面的影响来概念化社会影响(Jobin等人,2019;Mittelstadt,2019;Shneiderman,2021)。然而,虽然道德和价值观在人工智能方面很重要,但用户很少表2关键发现及其对HCAI的影响。对HCAI的没有 精心制作,例如, “Security and privacy are also“Human4.1.1. 不确定用户通常无法想到AI的好或坏体验事实上,这可能有一系列的原因,包括问题的开放性,这些问题的措辞的广泛术语,真正缺乏人工智能系统的经验,或者缺乏关于什么构成人工智能以及他们在哪里与人工智能交互的用户知识(Curtis et al.,2022; Gillespie等人,2021年)。为了进一步探索这一点,我们总结了用户识别的AI系统类型。总的来说,这些都是人工智能的合法例子,包括人形人工智能(Alexa,Siri,Cortana,聊天机器人,电脑游戏人工智能,人工智能教师,人工智能服务器,➢ 功能性是AI用户体验的一个定义性特征,也是开发人员的一个关键优先事项➢ 社会影响是一个决定性特征人工智能的用户体验,特别是积极的体验➢ 对于用户来说,可理解性不如被AI理解➢ 道德、隐私和安全是开发人员的重要优先事项,但不是人工智能用户体验的关键方面➢ 许多用户无法识别AI的正面或负面体验的例子• 让人工智能系统为用户服务是让它们成为人类的重要组成部分-为中心• HCAI需要更加关注AI对用户和其他人的影响,并对其进行更清晰的概念化。• 虽然可理解性、可解释性和可解释性对HCAI很重要,AI系统让用户感到被理解是很• 人工智能政策往往反映出对避免伤害,这是必要的,但本身不足以实现HCAI• 需要更多的研究来了解人们在生活中对人工智能系统的了解程度W.J. Bingley等人计算机在人类行为141(2023)1076175在他们的经历中提到了道德或价值观。相反,他们的经验是由人工智能对自己和他人的影响塑造的。在此基础上,我们建议需要做更多的工作来认识和理解人工智能的社会影响,特别是在寻求理解积极的用户体验及其将其转化为开发人员实践时。同样,HCAI指南也可能受益于更加注重了解人们的需要和愿望。我们的研究结果还强化了这样一种观点,即潜在用户和其他利益相关者的参与式设计对于人工智能以人为本很重要(A X elsson et al. ,2021; Elahi等人,2021; Shneiderman,2020b)。HCAI研究人员和指南强调AI应该对研究人员,用户和受AI系统影响的人来说是可解释的,可理解的和可解释的(Ehsan et al.,2021;欧洲委员会,2019; Floridi等人,2018; Jobin等人,2019; Oppermann等人,2019; Riedl,2019; Shaw,2019; Sperrle等人,2021年)。然而,这种关注可能会掩盖用户感觉被AI理解的重要性(Riedl,2019)。事实上,在我们的研究中,用户似乎并不关心理解AI,但经常因为对AI缺乏理解而感到沮丧-无论是理解他们作为一个人,理解他们从AI系统中想要什么,还是理解人类。这些结果与Bucher(2017)的研究结果一致,即负面体验,如被描述,误解或忽视的感觉,可能源于人工智能系统无法理解一般人,特别是用户。许多研究人员也提出了这种负面体验的解决方案 ( Alvarado &Waern , 2018; Eslami 等 人 , 2015; Nagulendra&Vassileva,2014,pp. 107-115)。然而,这些研究通常更多地关注透明度和用户控制,而不是提高人工智能系统以及创建和实现它们的人对人类的理解程度。虽然用户控制和理解是允许人工智能系统将用户理解为独特个体的重要组成部分,但我们认为这对人工智能系统也 很 重要,他们创造和实施它们,以更好地了解人们,一般并纳入这些理解,以改善&在我们的研究中,开发人员优先考虑道德,隐私和安全。换句话说,他们对人工智能系统的危险表现出了敏锐的意识。然而,社会影响在定义积极用户体验中的重要性表明,HCAI的另一个关键要素是它应该使人们的生活更美好(Floridi等人,2018; Shneiderman,2021;W. Xu,2019)。在最近的AI指南的审查中,Jobin et al. (2019)发现,透明度,正义,公平,非恶意,责任和隐私都比善行更常被提及。这反映了现有原则普遍侧重于预防损害。这是至关重要的,但不应该是HCAI的唯一目标例如,Floridi et al. (2018)提出,人工智能可以用来实现自我实现,增强代理,提高社会能力,培养社会凝聚力。然而,这些结果不能通过单纯地关注避免或减少伤害来实现。因此,还必须了解用户想要什么和需要什么,并在平等的基础上将其与非恶意纳入开发过程Loi(2019)提供了一个关于HCAI如何专注于理解和满足用户需求,同时仍然最小化负面结果的例子,他为智能系统制定了十项指导方针,包括usages'. 同样,Bellet等人(2021)使用了一种用户体验方法-在设计人工智能算法以管理车辆自动化的人机转换时,包括效用,满意度和安全性的测量。4.1. 将人类需求纳入HCAI本研究的结果表明,社会影响是人工智能系统开发人员和用户的主要关注点然而,仅仅依靠道德框架来增加积极影响和减少消极影响不太可能是有效的(Eitel-Porter,2021),而关于具体做法的检查表有可能成为“boxticking”练习,而不是鼓励以人为本的关注(Bosk等人,2009; Kiran等人,2015)。此外,目前还不清楚什么可能构成人工智能的积极社会影响(Floridi等人,2018; Moore,2019)。我们认为,从以人为本的角度来概念化社会影响的一个有效方法是关注人类的普遍需求。具体来说,有大量的研究表明,满足心理需求对于个人的结果(如身体健康,心理健康和繁荣)以及团体的结果(如动机,沟通和生产力)都很重要(Deci Ryan,2012&; S。A. Haslam,2004; Jetten等人,2012年)。事实上,沿着这些思路,一些研究人员已经讨论了理解人类需求对HCAI的重要性(Floridi等人,2018年; W. Xu,2019)。此外,其他HCAI研究人员已经调查了特定群体的需求,例如医疗从业者(Cai et al.,2019),需要移动翻译的人(Liebling等人, 2020)和开发人员(Holstein等人, 2019年)。然而,关于具体需求,HCAI主要关注自主性(Floridi等人, 2018;Maedche等人,2019年;Vaéanaénen等人, 2020年)。借鉴社会心理学的研究(Baumeister &Leary,1995; Deci &Ryan,2012; Tajfel &Turner,1979; Turner等人, 1987年,p.239)我们建议,确保HCAI“永远”发挥作用的一种方法作为一个起点,我们认为人工智能使人们能够以心理上有意义的方式加强与群体和社会的联系是至关重要的。Haslam等人,2018; Turner等人,1987年,第239页)。此外,虽然HCAI应旨在最大限度地提高用户的自主性,但它还应考虑群体实现共同目标的能力(特别是那些在更广泛的社会中被边缘化的群体)(Ho,2020; Jesus等人,2018; Trewin等人,2019年))。此外,人工智能系统应该支持用户和他们所属的群体感到有能力(Deci&Ryan,2012; Kachanoff等人,2020年)。通过分析AI在社会心理层面的社会影响(即,它对人和他们所属的群体的影响),“积极影响”的含义&&可以通过利用现有的理论和测量工具来操作化(BaumeisterLeary,1995 ; Deci Ryan,2012 ; Ng等人,2012; Postmes等人,2013;Tajfel &Turner,1979; Turner等人,1987年,第239页)。通过这种方式,人工智能对人有负面影响)。4.2. 优势、局限性和未来研究这项研究中调查的特定样本既代表了优势,也代表了局限性。我们调查了来自两个国家的各种背景的用户,科技行业的专业人士和参加大学课程的新兴开发人员。因此,这项研究提供了一个不同的视角,以前的人工智能用户体验研究,往往集中在一个特定的群体(Ameen等人,2021; Krening &Feigh,2018; Maier等人,2019年; S. J.H. Yang等人,2021年)。此外,将开发人员纳入事实上,这些学生中大约有一半是从HCI大学课程中招募的,其中明确教授HCAI理论和指导方针。然而,我们的样本不太能代表那些在AI领域工作多年的开发人员。未来的研究应该调查一个更大的结构化样本,即成熟的行业专业人士,看看我们观察到的结果是否与那些在实践中拥有更多人工智能经验的开发人员不同。鉴于有代表性的调查显示,年轻一代比老年人W.J. Bingley等人计算机在人类行为141(2023)1076176几代人(Gillespie等人,2021年),未来的研究应该检查我们报告的发现是否适用于老年人。对于未来的研究来说,纳入更广泛的用户视角也很尤其重要的是,要汲取边缘化和弱势群体的经验。例如,将人工智能系统视为延续现有结构性不平等的用户可能会对“社会影响”有不同的概念,这一点为了改进抽样程序,未来的研究还应该包括一个更加迭代的数据收集和分析过程,以确保数据饱和。未来的研究还可能探讨如何将HCAI的道德价值观转化为具体的实践-例如,采用基于需求的方法。我们研究的另一个优点和局限性是我们向参与者提出的一系列问题这些都是简单而广泛的,因此,我们收到的答案可以与现有的HCAI理论和指导方针的一般广泛范围进行比较。这与HCAI中现有的用户体验研究形成对比,HCAI倾向于关注特定的AI系统(Marikyan等人, 2019; Moussawi,2018; Y. Xu Warschauer,2020&; S. J.H. Yang等人,2021年)。然而,在这方面的未来研究应该开发更多的焦油-在这些初步发现的基础上提出问题比如一些在我们的分析中确定的主要主题可以指导关于功能、个性化和人类需求的具体问题的创建。为了得到更丰富的回答,这些问题也可以在半结构化面试中提出。此外,许多用户无法想到人工智能的积极或消极体验。虽然这可能是问题的开放性的一个功能,但也可能是因为这些参与者对AI的构成缺乏清晰的理解。未来的研究应该为用户提供人工智能的定义或支持人工智能的系统的示例,以帮助参与者澄清这一点最后,我们的研究结果提出了一些有趣的问题,值得在未来的研究中探索。例如,用户自发地识别了许多跨各种领域的AI示例。从理论或专家的角度定义人工智能有着悠久的传统(Marr,1977;McCarthy,2004;Monett&Lewis,2018),但鉴于人工智能系统在人们日常生活中的流行此外,尽管我们的数据表明,开发人员的优先事项至少与道德框架的某些元素保持一致,但重要的是要探索开发人员是否积极利用这些框架。我们的研究结果表明,框架可以有效地引导开发人员的价值观,被广泛认为是重要的,但他们可能缺乏实用性,当涉及到作出具体的设计选择。5. 结论在本文中,我们回顾了HCAI理论和指导方针,并将其与评估开发人员优先级和用户体验的调查结果进行了比较。开发人员的优先事项在一定程度上与当前的指导方针保持一致,尽管我们的研究结果表明,人工智能在原则上和实践中都没有达到HCAI理论所设定的目标。令人鼓舞的是,开发人员意识到了人工智能系统的风险,除此之外,他们还直观地认识到,从用户的角度改进功能是HCAI的一个重要目标。然而,我们的研究结果表明,HCAI将受益于对人工智能社会影响的更多理解,因为这些对积极的用户体验特别重要,并且这些可能最终进一步塑造人工智能伦理景观。此外,为了弥合HCAI的目标与当前实践之间的差距,我们建议研究人员和指导方针应该更多地关注人们在生活中需要什么,以及人工智能如何帮助或阻碍这些需求的满足。最后,我们认为,要真正做到“以人为本”,HCAI 需要比目前更多地关注人类可以这贷方作者声明WilliamJ. Bingley:概念化,方法论,形式分析,调查,写作-&&&&&亚历山大·哈斯拉姆:概念化,方法论,调查,写作--&L.Ko:概念化,方法论,调查,写作评论编辑&&&&资金这项研究由昆士兰大学心理学院、信息技术和电气工程学院以及昆士兰大学商学院共同资助ARC语言动力学研究中心(ARC Centre ofEX Cellence for the Dynamics of Language,CoEDL)提供了额外的资金竞争利益作者声明,他们没有已知的竞争性经济利益或个人关系,可能会影响本文报告的工作数据可用性使用的数据是保密的。确认我们要感谢所有花时间完成这些研究中涉及的调查的人,以及允许我们从他们的课程中招聘的课程协调员附录A. 补充数据本 文 的 补 充 数 据 可 以 在 https : //doi 上 找 到 。org/10.1016/j.chb.2022.107617。引用阿尔瓦拉多岛&Waern,A.(2018年)。Towards Algorithmic Experience:Initialefforts for social media context.在2018年CHI计算机系统中(pp. 1-12)。计算机协会https://doi.org/10.1145/3173574.3173860.Ameen,N.,Tarhini,A.,Reppel,A.,&Anand,A.(2021年)。人工智能时代的客户 体 验 。 计 算 机 在 人 类 行 为 , 114 , 文 章 106548 。 https :doi.org/10.1016/j.chb.2020.106548Amershi,S.,Weld,D.,Vorvoreanu,M.,Fourney,A.,Nushi,B.,Collisson,P.,Suh,J.,Iqbal,S.,贝内特,P. N.,Inkpen,K.,Teevan,J.,Kikin-Gil河,&Horvitz,E.(2019年)。人机交互指南2019年CHI计算机系统中人为因素会议论文集(第10页)1-13)。https://doi.org/10.1145/3290605.3300
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- Aspose资源包:转PDF无水印学习工具
- Go语言控制台输入输出操作教程
- 红外遥控报警器原理及应用详解下载
- 控制卷筒纸侧面位置的先进装置技术解析
- 易语言加解密例程源码详解与实践
- SpringMVC客户管理系统:Hibernate与Bootstrap集成实践
- 深入理解JavaScript Set与WeakSet的使用
- 深入解析接收存储及发送装置的广播技术方法
- zyString模块1.0源码公开-易语言编程利器
- Android记分板UI设计:SimpleScoreboard的简洁与高效
- 量子网格列设置存储组件:开源解决方案
- 全面技术源码合集:CcVita Php Check v1.1
- 中军创易语言抢购软件:付款功能解析
- Python手动实现图像滤波教程
- MATLAB源代码实现基于DFT的量子传输分析
- 开源程序Hukoch.exe:简化食谱管理与导入功能
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功