没有合适的资源?快使用搜索试试~ 我知道了~
人工智能偏见:影响与应对
International Journal of Information Management Data Insights 3(2023)100165我们如何管理人工智能系统中的偏见Dr. Varsha P.S.印度班加罗尔Presidency大学商学院aRT i cL e i nf o保留字:人工智能偏差责任心AI AI伦理人工智能系统a b sTR a cT人工智能类似于人类智能,组织中的机器人总是执行人类任务。然而,人工智能在网络经济中的运行过程中遇到了各种各样的偏见。编码算法有助于具有各种偏见和模糊性的公司的决策。本研究为定性研究并断言,各行各业的人们所经历的人工智能偏见和脆弱性导致性别偏见和种族歧视。此外,该研究还描述了不同类型的偏见,并强调了负责任的人工智能公司的重要性,以降低人工智能的风险。这些影响讨论了政策制定者、管理者和员工必须如何理解偏见,以改善企业公平和社会福祉。未来的研究可以在消费者偏见,工作自动化偏见和社会数据偏见方面进行1. 介绍人工智能(AI)正在成为客户服务、营销和销售等多个运营流程的企业中越来越受欢迎和普遍的特征(Brit,2021年;Verma等人, 2021年)。在当前的情况下,商业和商业中的人工智能实施已经增加,以预测更好的消费者选择/定制并实现公司的竞争优势(Teleaba等人,2021;Waja等人,2023年)。此外,公司采用技术预计将促进业务增长和决策(Gonzales& Hargreaves,2022年;Brit,2021年)。然而,由于使用人工智能来预测公司销售或业绩,关于人类认知偏见的争论已经升温(Teleaba等人,2021年)。人工智能是不稳定的,数据输入错误可能会由于有偏见的输出而发生(黄锈,2021)。通过考虑银行业等各个行业的人工智能偏见,有人提到,即使系统中没有任何偏见(UkanwaRust,2020)。研究人员发现,在职业干广告中使用无偏见算法时,结果中可能会出现性别偏见(Lambrecht& Tucker,2019)。因此,许多公司在决策中使用人工智能引起了人们对自动选择导致歧视性结果(Sweeney,2013)和不受欢迎的广告(Datta等人,2015年)。因此,在公司中,技术上的“电锯”比人类的“电锯”更常见(英国人,2021年)。在销售中使用人工智能来增加收入已经引起了全球的关注。自动化包括机器学习、深度学习、信息检索和自然语言处理技术,有助于业务流程,并利用数据带来创新的解决方案,更多的定制,利润优化和拥抱坚定的转变(Dickie,2021;NagwaniSuri,2023)。显然,销售中的人工智能工具存在偏见,而业务线索是为了与客户联系并收集各种数据,但未能理解最高的生命周期价值(Fatemi,2020)。随后,透明度是AI深度学习系统中的关键因素之一(Sharma等人,2021年)。数据透明保护隐私,而人类通过人工神经网络训练机器学习模型,其中决策不合理,遇到黑盒问题(Selbst &Baro- cas,2018)。这种黑盒问题给公司带来了风险,而部署算法不容易解释,并在人工智能系统中产生偏见(Roselli等人,2019年)。从法庭上观察到了关于人工智能偏见风险的几次讨论从药品到商业的决定(Teleaba等人, 2021年)。 考虑到苹果&在此之后,人们开始意识到偏见问题,以便在医疗保健,商业和管理等某些领域为机器学习带来公平和公正。此外,不正确预测的风险将对消费者产生负面影响,因为他们的产品或服务不创造价值。由于客户满意度和忠诚度的下降,这些有偏见的结果将对公司的权益,收入和盈利能力产生较小的影响(Teleaba等人,2021年)。因此,即使算法无法提供决策,嵌入式计算机代码中也存在偏见(Edionwe,2017)。然后,数据科学家和软件工程师无法理解更大社会场景的过程和选择,电子邮件地址:smiracle2@gmail.comhttps://doi.org/10.1016/j.jjimei.2023.100165接收日期:2022年6月29日;接收日期:2023年2月12日;接受日期:2023年2月13日2667-0968/© 2023作者。由Elsevier Ltd.发布。这是一个CC BY-NC-ND许可证下的开放获取文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)可在ScienceDirect上获得目录列表国际信息管理数据见解期刊主页:www.elsevier.com/locate/jjimei维博士P.S.表2International Journal of Information Management Data Insights 3(2023)1001652AI的定义描述参考文献推理、解决问题、学习和整合多种人类技能(如感知、认知、记忆、语言或规划)的能力指的是人工智能。Kar等人(2022年)人工智能系统使用数学模型从数据中得出推论,增加透明度,人类获得“什么”、“如何”和“为什么”等Kar等人(2022年)人工智能在公司中已经从一种刚刚采用的技术发展到为所有领域的日常决策过程提供Kar等人(2022);Morande(2022)人工智能技术能够通过让员工理解和克服复杂情况来增加公司员工的知识更有效,并通过提供几种替代选择来促进决策过程。Malik等人(2021年)人工智能利用机器的优势来满足客户的期望,并提高组织的运营效率。Kushwaha等人(2021年)机器学习是一种人工或计算智能技术,描述了机器Votto等人(2021); Garg et al. (2021年)人工智能被定义为模仿通常与人类特征相关的认知能力的系统,例如学习,言语,解决问题Dwivedi等人(2021年)也就是说,可以将偏差引入公司(Akter等人,2022;Yarger等人,2019年)。人工智能驱动的决策在公司中带来了不公平和不平等的影响,导致算法偏见,并且关于这个主题的研究将非常缺乏(Kar& Dwivedi,2020;Kumar等人,2021; Vimalkumar等人, 2021年)。 这种来自人工智能偏见的负面经验对公司有很大的影响,特别是在涉及决策的时候。该研究还揭示了自动化对种族,性别,信用评分,面部识别等的偏见,它通过虚拟助理,机器人和公司的算法建议来强调这些问题。此外,消费者用户、研究人员和专家在将基于人工智能的解决方案纳入公司系统时必须进行批判性思考。然而,人工智能在各个领域获得的结果仍然存在错误,我们的研究提出了以下研究问题,解决了这一差距,在解决人工智能偏见方面更有意义• 什么是AI偏见,它们是如何在系统中发生的• 如何在系统中解决AI偏见和漏洞?这些研究问题带来了文章的新颖性,以解决偏见及其类型,以了解和减轻公司的风险。此外,该研究旨在重点解决偏倚,以便评估可验证性。我们进一步安排讨论,以解决这些探索性问题,具体如下。首先是文献综述部分,第二部分是研究方法,第三部分是解释案例的发现,第四部分是解决系统中的AI偏见。最后对本文的讨论、意义、未来研究方向进行了说明,并给出了结论.2. 文献综述2.1. AI系统的进化AI可以追溯到1950年,当时英国博学家艾伦·图灵设计了一项测试,看看机器是否可以模仿人类的认知功能来识别模式(巴特拉等,2018年)。1956年,当John McCarthy邀请全球跨学科领域的学者和行业专家讨论消费数据和模仿人类行为的计算机的重要性时,它变得更加流行(Garg等人,2021; Herath& Mittal,2022)。 该数据共享并创造了全球更高计算处理能力的新进步所提供的可能性(Akter等人,2020年)。这些技术进步影响了公司并彻底改变了市场(Sharma等人,2021年)。由于本发明在1956年的高计算能力中,相关的人工智能理论已经发展了好几年(Cohen Feigenbaum,2014)。许多学者和行业专家提出了人工智能的各种定义,即具有类似人类认知能力的机器(McGettigan,2017),并使它们能够处理复杂的情况(Malik等人,2021年)。此外,人工智能有助于为决策提供多种解决方案,公司(巴德&凯泽,2019年),以评估分析,直觉和同情的智慧(卡尔等人,2022年)。人工智能包括数据、算法和计算,近年来取得了重大进展(Messner,2022)。因此,人工智能是机器学习部署一种算法来提供原始数据,从而能够通过模型产生有意义的输出(Sarle,1994)。它是一组计算技术,使我们能够在各种背景下的复杂情况下做出理性决策(Treinnick,2017)。最后,我们用表1中的重要短语总结了人工智能的定义。当前业务场景中的人工智能使用既不正常也不中性,并且在几个领域中出现了各种挑战(Kar等人,2022年)。通过考虑对环境的最优控制 决 策 的 研 究 ( Qi 等 人 , 2019 ) , 预 测 崩 溃 的 方 法 ( Abdel-atyHaleem,2011),及时识别交通条件(Hossain Muromachi,2012),大规模创业(Elia等人,&&2020)、恶意软件检测(Mohaisen等人,2015年)等,使用AI驱动的决策。因此,系统中的人工智能对业务流程及其主要在技术、接受度、社会融合、就业机会和法规等领域的表现产生影响(Cao等人,2021; Collins等人,2021; Kumar等人,2021年)。AI能够识别营销领域客户数据中的模式。Brinks家庭智能安全系统公司使用 人工智能通过使用自然语言处理(NLP)。此外,在Adobe Sensei Firm中,还通过机器学习部署了AIing有可能帮助营销人员驯服数据,使其具有意义-完整的见解(Liesse Julie,2021)。进一步的人工智能用于人力资源公司的招聘,以预测工作描述并选择合适的候选人(Sridevi& Suganthi,2022; Votto等人,2021年)。随后,算法被用于医疗保健,交通和安全,其中可以为 人 类 生 命 或 健 康 做 出 决 策 , 需 要 透 明 度 和 可 解 释 性 ( Adadi&Berrada,2018; Chintalapudi等人,2021; Pawar等人,2020年)。因此,可解释性AI是工业4.0中最新和最相关的主题,工业4.0通过使用AI系统进行决策或预测来改变操作(过程)(Singh等人, 2022年)。2.2. AI系统在系统中,数据输入是有偏的,输出很可能是有偏的(Huang Rust,2021)。例如,亚马逊使用人工智能工具来衡量和评估求职者,同时歧视女性求职者(Weissman,2018)。此外,当自动计算保费是基于宗教 而 不 是 性 别 时 , 保 险 公 司 会 出 现 人 工 智 能 错 误 ( Villasenor ,2019)。因此,自动化系统在动态定价和目标折扣方面存在偏差(MilerHosanagar,2020;Brit,2021)。因此,偏差可能会蔓延到算法中,并且只对系统中的训练数据集有益(Brit,2020)。几项研究表明,人类的偏见来自于技术进步(de Graaf& Allouch,2017;Haring等人, 2018;Kuchenbrandt等人,2013年)。虽然认知偏见影响了人们如何通过人工智能和机器人创造做出决策的各个方面,维博士P.S.International Journal of Information Management Data Insights 3(2023)1001653表2AI偏见在各个行业。公司算法偏差可观察/不可观察AdobeAdobe软件在购买软件时阻止了特定人口统计数据的客户(Jared Council,2021)不可观察Lyft动态拼车价格存在偏见,建议客户必须支付更高的激增价格(Wiggers,2020)可观察Facebook(FB)Facebook中的AI偏见允许广告商将营销广告/招聘广告定位于特定的性别、种族和宗教。与少数民族背景(Dilmegani,2022)可观察银行家金融科技中发生的错误始于支付过程和收入分享伙伴关系(AnnieBrown,2021)可观察微软当客户开始与Tay聊天机器人就种族主义评论和语音助手聊天时,短语,而不是解决客户查询(英国人,2021年)可观察尼康数据驱动的偏见源于尼康关于亚洲面孔的新产品,而惠普媒体智能计算机在面部识别中存在肤色问题(Hammond,2016)可观察脉搏血氧计流行病期间氧氮水平监测遇到了较深的皮肤比较浅的皮肤更少的准确性(种族偏见)(对话,2022)可观察(Lethern等人,2020年)。由于人性化技术在消费者和营销人员中的扩散,理解人类偏见偶然转移到人工设计中至关重要。社会情报(Jobin等人,2019年)。在这种情况下,人工智能偏见可以解释为信息可以从人类传递到人工智能,而编程和编码数据过程会产生种族主义和歧视问题(Penny,2017)。因此,偏差是由算法开发阶段或确定的训练数据集期间做出的先入为主的假设引起的机器学习算法的异常(Dilmegani,2022)。因此,所有这些陷阱都表明,除非营销人员和消费者受到教育,否则算法偏差引起的问题并不微不足道(Knight,2017)。它被总结为一个美丽的混乱 在AI或机器人中编程偏见时,它会进化并影响公司。随后,该研究发现,心理学和行为经济学中描述人工智能预测消费者选择风险的偏见分为两种类型-可观察的(在电子商务网站中,营销人员喜欢通过分析几年来的大型客户数据集来了解他们的客户的偏好,这些数据集包括最频繁购买的产品,产品特征,和产品可用性)和不可观察(不可能检测到与购买或定价数据相关的大数据,这需要额外的研究技能来识别偏差)(Teleaba等人,2021年)。不同行业的人工智能偏见在表2中讨论了不可观察和可观察的风险。认知偏差和不当数据集的影响会产生偏差,影响动态定价、电子商务、雇佣和医疗保健等各种参数(Dilmegani,2022)。进一步的研究提供了几个重要的贡献,我们发现和相关的三个理论,从文学,包括社会理论(乔伊斯等人, 2021; Zajko,2022),刺激有机体反应理论(Mehrabian& Rus-sell,1974)和组织正义理论(Colquitt& Rodell,2015)。根据这些理论,来自全球科技公司的专家实施了各种措施来减少人工智能偏见(Weyrer& Langer,2020)。例如,谷歌已经实施了一个概念激活矢量测试(TCAV)计划,开发人员在该计划中测试决策算法,以减少偏见和性别歧视(谷歌,2019)。埃森哲推出了(埃森哲,2018年)。IBM包括70个参数公平性度量以减少AI系统中的偏差的扩展方法(Bellamy等人,2019年)。在医疗保健系统中,通过创建公平标准,规范算法,临床决策工具以及促进公众和企业之间的关系来减少偏见(Panch等人,2019)。3. 方法系统性综述广泛应用于多学科领域,但目前我们正在业务、管理和会计领域取得进展,以检查分散在互联网上的大量数据,从而提供可量化、可重复、系统的方法来阐明和透彻特定领域(Weed,2006)。开展Fig. 1. 相关论文流程图(纳入/排除)。文献回顾中,我们遵循了开创性综述研究提供的指导方针(Cran field等,2003; Durach等人,2017年)。我们在这项研究中确定了公司中人工智能偏见的各种来源。为了进行文献综述,我们使用Scopus数据库来寻找用于本系统综述的出版物,因为它提供了更广泛的学术信息,以更深入地了解我们打算进行的研究进行(Kar等人,2022年)。在数据库中包含Scopus索引的研究论文取决于严格的选择标准,因此我们可以依赖它们进行学术研究(Kumar等人,2022; Tiwary等人,2021年)。为了进行我们的研究,我们使用了一个关键字列表,并结合了文章标题和关键字的数据库搜索。为了提取文献,我们使用关键词搜索ALL(“使用布尔逻辑(AND/ OR),找到884个 图 1代表相关论文纳入和排除标准的流程图。进一步开发了一个概念模型图2来解决研究问题。4. 案件调查结果4.1. 电子商务中的AI偏见亚马逊是一家总部位于美国的全球在线零售商,部署人工智能来提高其服务和产品的工作效率和客户个性化。该公司此外,对这些算法进行了训练维博士P.S.International Journal of Information Management Data Insights 3(2023)1001654图2. 在系统中管理AI偏差的概念模型&负责任的AI。识别简历中的单词模式,而不是特定的技能组合,开发这种人工智能工具的公司在忽略 女人这个词(詹姆斯·文森特,2018)。因此,招聘过程中存在的性别偏见表明公司招聘过程中工作场所存在性别不平等(Lindsay,2019年)。4.2. 在线广告这个案例解释了广告和比较网站上的白人名字。联邦贸易委员会(FTC)的报告发现,在各种服务的广告中提到了对非裔美国人姓名的在线搜索查询,从而形成了黑人的逮捕记录(Sweeney Zang,2013)。类似的事件发生在网站广告中的高息信用卡和其他金融产品的微目标 这项研究表明,大数据分析被错误地用于根据用户的个人资料、数字活动和行为来跟踪在线用户(Ramirez等人,2016年)。事实上,联邦贸易委员会发现,在线用户在浏览互联网时被拒绝访问他们的信用卡。此外,用于汇编网页浏览历史的预测分析提出了错误的方法,并为特定工作、个人信用或教育机会定义了个人数据除此之外,营销人员将使用在线代理,包括邮政编码,以收集有关个人的社会经济地位的信息,结果,算法被用于弱势群体,复制和造成明显的歧视或创造一种新型的错误,有意识或无意识地发展社会偏见,培养刻板印象,以及对在线用户的不公平描述。4.3. 共享经济中的顾客Airbnb是一个全球性的在线市场和共享经济,为住宿,寄宿家庭和旅游企业提供服务。2017年,家庭共享公司发现,少数主机基于种族,年龄,性别和其他因素拒绝租房者(客户)(墨菲,2016)。客户被拒绝的主要原因是他们在社交媒体网站上的在线公开资料(Murphy,2016)。该案件的结论是,人工智能低估或判断客户,导致对利润的预测不正确,并通过种族歧视对人们产生影响。4.4. 数字广告2014年,谷歌为用户提供了四个性别选项:男性和女性选项是更传统的性别人口统计数据。选择“宁可不说”的用户群中提到,“习俗”指的是非传统性别群体。这些政策是在更大范围内制定并提供给客户或用户的。因此,每个客户将有两个部分在谷歌收集信息。然后客户或用户注册他们的谷歌账户,谷歌随后从网络搜索、广告、地理位置、历史记录、支付交易等方面收集客户的数据(Shekhawat et al. 2019年)。然后,谷歌广告设置的广告自定义页面方便客户有机会选择他们想要如何分组。Google为客户提供了不理想或不相关的选项来分类男性或女性定位,以便在Google广告个性化页面中遇到偏见,隐私和数据透明度问题的系统中的网站上创建个人偏好(Noble,2018)。此外,谷歌在谷歌图片中遇到了带有文化偏见的错误,在谷歌图片中,白人CEO照片的搜索更占主导地位(Kay等人,2015年)。因此,大数据将成为人工智能偏见的一个主要问题,这会影响客户偏好,并导致在线环境中的文化偏见(Schroeder,2021)。4.5. 招聘中的偏见这些组织在人力资源管理中引入人工智能,并被认为是新的商业实践(Votto等人,2021年)。然而,利用种族和性别等人口因素对工作场所的妇女代表性不足进行了调查(Dovidio& Gartner,1996年)。Woodruet al.(2018)在他们的研究中报告说,受访者认为,黑人受访者的招聘过程是一个问题,他们的招聘可能性较低,这与全国对种族公正和经济不平等的关注有关。此外,在IT部门,技术工作者在重新筛选过程中面临基于外貌、性别和种族的筛选偏见(Beattie Johnson,2012)。由于种族和性别偏见,女性在技术就业市场上的待遇将比男性员工差(Wachter-Boettcher,2017)。4.6. 面部识别麻省理工学院的学者Joy Buolamwini在她的研究中发现,面部识别软件设备的算法无法识别深色皮肤的人。维博士P.S.International Journal of Information Management Data Insights 3(2023)1001655肤色(Hardesty,2018)。在面部识别软件中,有能力训练数据集,并评估75%以上的男性和80%以上的白人。当照片中的人对于一个白人男性,该软件在99%的时间内都是精确的,同时将人类识别为男性。根据这项研究,产品误差存在于低于1%的整体人群中,然而,在一种产品中,它增加到超过20%,在另外两种被认为是深色皮肤的女性中,它增加到34%作为女性(Lee等人,2019年)。5. 解决AI系统营销人员部署人工智能来捕获情感数据进行分析,以了解客户的情绪。 客户与人工智能的互动导致客户在Facebook等社交媒体平台上高度脱离(喜欢和不喜欢)(Srinivasan等人,2016年)。因此,客户无法理解AI或与AI互动(Luo等人,2019年)。未来,客户将与语音助手互动以解决他们的问题,这将引入偏见。因此,已经考虑了各种措施来避免这些偏差。虽然人工智能被用于营销分析,特别是针对性和定制的营销行动,但营销人员必须意识到人工智能偏见,并提高他们的能力,以尽量减少人工智能偏见。这些人工智能偏见是不可预测的(Fuchs,2018),并增加了社会脆弱性,主要关注三个层面-领域专家,最终用户和社会(Lockey等人, 2021年)。5.1. 领域专家漏洞公司内人工智能领域的专家为运营流程部署人工智能系统。例如,在医疗保健中,医生使用支持AI的医疗诊断应用程序。这一领域的专家知识可以被纳入编码信息的开发中,以训练人工智能系统,它们与服务交付的输出一起工作(Lockey等人,2021年)。领域专家所面临的主要弱点,特别是专业知识、技能、身份和声誉以及自动化导致去技能化(Rinta-Kahila等人,2018; Sutton等人,2018年)。医疗保健中的另一个弱点是领域专家了解问题以做出临床决策,拟人化可能威胁专业身份和声誉(Lockey等人,2021年)。同样,公司的招聘流程部署了 人工智能来雇佣员工。 漏洞将是管理人员在使用人工智能工具选择候选人时没有任何性别或种族偏见的知识(Black van Esch,2021)。 然而,随着公众对人工智能驱动的人力资源解决方案的审查,算法偏见有所增加(Drage& Mackereth,2022)。亚马逊在2018年报告说,他们被遗弃- 开发一个人工智能驱动的招聘引擎,因为它识别了候选人简历上的性别特征2021年对Facebook招聘广告算法的公正评估此外,在-在线照片编辑应用程序FaceApp后来发现,种族偏见会使非洲裔美国人的肤色变浅,因为欧洲人的面孔统治了训练数据,从而定义了算法随后,Airbnb暗示,具有不寻常名字的非洲裔美国人的种族不太可能比具有更常见名字的游客成功预订,同时歧视非洲人(Edelman等人,2017年)。最后,在金融服务的许多领域都发现了种族偏见,如抵押贷款、其他个人贷款和商业贷款,以及保险业的信用评分,在这些领域,白人家庭可以要求比黑人家庭主妇更高的保险金额(伤亡保险精算师)。ial Society(2022))。要解决这些漏洞,包括机器学习和人工智能造成的种族偏见和歧视,领域专家必须拥抱技术变革。更多的领域专家或经理和数据科学家达成协议,将运营过程中的原则和价值观作为最后,来自不同公司的经理必须了解负责任的人工智能,以保护客户5.2. 最终用户最终用户直接受到AI系统的影响。系统中会有几个易受攻击的问题、不准确或偏差。许多最终用户在低估基于AI的决策时面临易受影响的问题(Lockey等人,2021年)。考虑到个人保险公司中人工智能的一个例子,当有人要求汽车保险时,公司积累了数千个数据点来判断偏见(Lockey等人,2021年)。通过理解这一背景,客户失去了数据隐私,脆弱性导致了人类尊严的丧失(Lockey等人,2021年)。随后,在医疗保健领域中,系统中的数据或环境之间存在不匹配,这些数据或环境是从机器学习中训练出来的。在患者的健康记录数据上出现偏差(Challen等人, 2019年)。显然,人工智能有能力理解消费者和语音助理,能够通过客户语音结果描述消费者关系和隐私问题(Cheng等人, 2022; Grewal等人,2021年)。此外,通过面部识别进行支付将存在重大的隐私问题,例如人脸具有关于外观、年龄、性别等的个人信息(Dantcheva& Brémond,2016; Dibekliovillu等人,2015; Liu等人,2021年)。此外,chatbots创建一个主要的问题,无法理解和客户导致不信任卖家或买家(颜江,2021)。此外,通过利用TripAdvisor中的人工智能-共享经济公司在客户数据和社交互动的隐私和安全问题方面具有负面影响-在线客户和虚拟助手之间的交互会降低客户满意度(Grunder Neuhofer,2021)。因此,基于人工智能的聊天机器人为最终用户(客户)提供了可扩展的解决方案,但在人机交互、自动检测和偏见方面将存在重大风险和挑战(Kushwaha等人,2021年)。在当今世界,人工智能是所有领域实现可持续发展的驱动力。为了在与最终用户互动时减少这些偏见,营销人员必须意识到五个核心功能,包括:认识到人工智能的道德问题,如公平,透明,平等,善良和社会利益;通过帮助人们理解单个产品的人工智能系统如何运作以及企业如何创建算法来提高人们对人工智能的认识;通过人类和人工智能之间的对话、倾听和理解与人工智能合作;确保人工智能的问责制-确认人工智能系统的创建者和用户都遵守道德标准;人工智能系统完整性-使其限制于该技术旨在减少偏倚的目的(Schrader& Ghosh,2018)。5.3. 社会社会脆弱性包括知识不对称、权力中心化和人工智能级联故障的能力(Lockey等人, 2021年)。知识不对称意味着考虑两个IT公司,政策制定者和公民之间的例子是不断变化的(Nemitz,2018)。数字中断是人工智能开发的驱动因素,用于各种运营决策的数据提取(Nemitz,2018)。此外,这些数据将是不准确和有偏见的,人工智能系统中的隐私问题将对公民遇到错误和不平等产生负面影响,并破坏隐私权等人权(Lockey等人,2021年)。也许我们仍处于理解当今世界技术造成的人工智能偏见和漏洞的早期阶段为了解决这些问题,行业专家、政策制定者和会计师事务所-Demics可以预测如何开发和使用AI(Barredo Arrieta等人,维博士P.S.International Journal of Information Management Data Insights 3(2023)1001656表3负责任的AI因素。因素EX夷平面采取措施解决AI偏见公平AI设备验证了多样性包容性并减少了偏见IBM已经主动通过提供开源工具包来最大限度地减少偏见,通过机器学习模型来评估,创建报告并减轻歧视和偏见(IBM AI Fairness,360)透明度人工智能系统必须在公司的流程和结果方面更加透明埃森哲实践负责任的人工智能在组织、运营、技术和声誉四大支柱上具有透明度,以创造公司价值和道德。通过了解偏见的来源,开发埃森哲的工具包,用于调查错误,并通过创建一个新的模型来实现公平和透明的决策(埃森哲,2021年)。问责人工智能系统必须将其结果的责任与道德相结合在微软,人们对人工智能系统对企业的影响负责。 由于各种模型,数据集和新技术的破坏,世界。该公司遵循原则和指导方针,通过面部识别了解客户,并了解和监控每个阶段的错误,以最大限度地减少人工智能生命周期中的偏见(微软,2022)稳健性和安全性人工智能系统应该采取预防措施来减少错误谷歌正在进行对抗性学习,同时使用神经网络通过创建对抗性插图来欺骗网络中的系统来检测欺诈行为。隐私管理个人数据用于决策,必须建立隐私控制以支持技术,确保个人数据用于特定和公平的目的。人工智能系统必须遵守与国际相关的法规数据隐私法律和标准思科将隐私工程实践开发到思科安全开发工具包(CSDL)中。这些做法有助于确保服务中的数据隐私。此外,公司制定并遵循全球个人数据保护和隐私政策(思科,2022)的原则。社会环境福祉人工智能系统将道德和公平的人工智能作为社会和环境福祉的综合方法英特尔的AI生命周期旨在通过引入道德原则来降低风险,并通过使用正确的工具创造包容性和可持续的环境(英特尔)来源:(Mikalef et al., 2022年)。2020年)。因此,人工智能提出了新的伦理、法律和治理问题,如种族歧视、性别偏见以及与决策结果所涉及的人工智能的客户意识和知识相关的问题(新加坡政府,2021年)。 先前的研究讨论了与负责任原则相关的距离因素,如偏差消除(Brighton& Gigerenzer,2015),AI结果的解释能力(Gunning等人,2019),以及安全和安保(Srivastava et al.,2017年)。近年来,我们对企业中负责任的人工智能有了更多的了解(Dignum,2019)。因此,人们对负责任的人工智能意识的不断增强会掩盖偏见。公平、透明、问责、稳健、安全、隐私、治理以及社会和环境福祉是增加负责任人工智能的关键领域(Mikalef et al., 2022年)。 通过提及系统中的偏差的众多原因,我们不能认为减轻所有这些原因的单一方法(Roselli等人, 2019年)。 该研究旨在提供定量评估、业务流程、监控、数据审查、评估和实验研究的组合,以最大限度地减少AI偏见(Roselli et al.,因此,该研究实施了责任AI(Mikalef et al.,2022年)的因素,并在表3中提到。6. 讨论6.1. 对文学的本文概述了公司中的几种AI偏见。此外,我们开发了一个框架来详细解释AI偏见。在人工智能文献中,一系列研究强调了人工智能对企业决策的重要性(Akter等人, 2020;Garg等人, 2021;Kar等人,2022;Sharma等人,2021年)。由于技术的快速发展,它 对公司和市场都有影响(Sharma等人,2021年)。因此,AI具有执行工作并像人类一样模仿的认知能力(Dwivedi等人,2021年)。因此,各种研究证明,人工智能的使用将在各个领域面临重大挑战Abdel-aty和 Haleem ( 2011 ) ;Eliaet al. ( 2020 ) ;Hossain 和 Muromachi(2012);Kar et al.(2022);Qi et al.(2019)。此外,该研究通过解释各种实例讨论了偏见的类型,包括认知偏见和不完整的数据( Panch et al. , 2019;Shrestha 等 人 , 2019;Weyerer& Langer ,2020。然而,关于人工智能偏见的文献是有限的,我们的研究集中在新的发现上,以促进方法学的进步和公司脆弱性的影响。通过制定政策来衡量偏差并优化风险。进一步的研究显示了人工智能社区参与的重要性。管理人员和员工必须自我教育,投入时间了解偏见并找到解决方案。6.2. 对管理和商业实践的我们的发现也有助于在许多方面的做法。该研究对基于文献的结论进行了验证,并表明专家、管理者和科学家有两个机会来识别和减少组织中的偏见。AI识别和减轻人类偏见的影响。第二个潜力是改进人工智能系统如何利用用于构建和部署模型的数据,以便它们不会使人类和社会的偏见永久化,也不会产生偏见和相关问题。因此,跨领域的合作有助于开发和实施技术创新、运营方法和道德标准,这是减少企业偏见的必要程序。此外,公司的从业人员和业务政策领导者可以通过考虑以下建议来最大限度地减少或降低人工智能风险:首先,了解可以通过人工智能纠正偏见的情况,以及人工智能很有可能使偏见变得更糟的情况;其次,制定政策和技术来检测和减轻人工智能系统中的偏见。第三,参与关于人类决策偏见的基于事实的讨论(Silberg& Manyika,2019)。此外,我们对营运程序的研究重点可能涉及透过更多抽样、聘用内部团队或外部实体审核数据及模型以及主动与集团接触以增强数据。最后,系统中的方法和指标的清晰度,使得能够理解业务预测中的公平性措施。随后,管理人员和员工投入更多时间研究偏见,作为一种多学科方法来解决道德问题和数据隐私问题。管理者激励公司员工做更多的研究以获得进步将需要跨学科的参与(de Almeida等人,2021年)。通过促进人工智能教育以及获得工具和机会,公司的管理人员和员工应投入更多时间发展人工智能社区,以消除不公平的偏见并提高人们的福祉。维博士P.S.International Journal of Information Management Data Insights 3(2023)10016576.3. 对理论的本研究的一个主要理论贡献是,通过在当前的IS文献中系统地识别、解释和综合了在相关研究中已经概念性或经验性研究的理论关系,来理解AI偏倚的概念。在数据科学中被分析为偏见的社会理论能够在公司中形成社会或性别或种族偏见(Joyce等人,2021;Zajko,2022)。社会理论强 调基 于阶级 和经 济不 平等 ( Grusky ,2019; Costanza-Chock ,2020),性别差异(Costanza-Chock,2020)和种族主义(Wong,2020)的算法偏见。 刺激-有机体-反应理论(Mehrabian Russell,1974)解释了算法输出中产生的偏差将通过感知公平性影响消费者行为。该理论认为,外部刺激与个体的内部(心理)刺激相互作用,导致基于算法偏见的行为反应(Mehrabian Russell,1974)。根据组织正义理论,从员工的角度来看,正义&这项研究遵循了更理论化的方法,因此研究结果将对行为和组织研究人员有用6.4. 今后的研究工作研究中的AI偏见仍处于早期阶段。这项研究有一个数字这为未来的研究开辟了令人兴奋的途径。主要局限性是方法论,文章仅限于商业、管理和会计,以进行文献综述。在计算机和医学领域,可以对人工智能偏见进行进一步研究。此外,还可以对通过电子商务购买产品时的消费者偏见或定价偏见进行研究。可以对工作自动化偏见进行进一步的研究,以解决和埃森哲(2018年)。埃森哲推出新的人工智能测试服务,https://newsroom.accenture.com/news/accenture- launches-new-artificial-intelligence- testing-services.htm}:内容:Text=Accenture's % 20% E2% 80% 9CTeach % 20and%20Test%E2%80%9D%20methodology,used%20to%20train%20machine%20learning检索自2022年11月26日。Adadi,A.,&贝拉达湾(2018年)。窥视黑盒X内部:对可解释人工智能(XAI)的调查。IEEE Access:Practical Innovations,Open solutions,6,52138-52160.Akter,S.,Michael,K.,Uddin,M. R., McCarthy,G., &拉赫曼,M。 (2020年)。 利用数字创新实现业务转型:人工智能、区块链、云和数据分析的应用。运筹学年鉴,1-33。https://doi.org/10.1007/ s10479-020-03620-w。Akter,S.,Dwivedi,Y. K.,Sajib,S.,Biswas,K.,班达拉河J.,&Michael,K.(2022年)。基于机器学习的营销模型中的算法偏见。 商业研究杂志,144,201-
下载后可阅读完整内容,剩余1页未读,立即下载
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![docx](https://img-home.csdnimg.cn/images/20210720083331.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- 利用迪杰斯特拉算法的全国交通咨询系统设计与实现
- 全国交通咨询系统C++实现源码解析
- DFT与FFT应用:信号频谱分析实验
- MATLAB图论算法实现:最小费用最大流
- MATLAB常用命令完全指南
- 共创智慧灯杆数据运营公司——抢占5G市场
- 中山农情统计分析系统项目实施与管理策略
- XX省中小学智慧校园建设实施方案
- 中山农情统计分析系统项目实施方案
- MATLAB函数详解:从Text到Size的实用指南
- 考虑速度与加速度限制的工业机器人轨迹规划与实时补偿算法
- Matlab进行统计回归分析:从单因素到双因素方差分析
- 智慧灯杆数据运营公司策划书:抢占5G市场,打造智慧城市新载体
- Photoshop基础与色彩知识:信息时代的PS认证考试全攻略
- Photoshop技能测试:核心概念与操作
- Photoshop试题与答案详解
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)