人工智能决策辅助:算法建议中的自动化偏差与选择性遵从研究

需积分: 11 0 下载量 98 浏览量 更新于2024-07-09 收藏 1.08MB PDF 举报
本文探讨了决策者在处理人工智能算法建议时所面临的两个关键问题:自动化偏差和选择性依从性。随着人工智能(AI)算法在公共行政领域日益广泛应用,其初衷是为了减少人类决策者可能存在的偏见,但新的交互模式也可能带来潜在的偏见。心理学研究表明,尽管存在警告信号和矛盾信息,决策者仍可能过度依赖算法建议,即所谓的自动化偏差。然而,这一假设在研究1中并未得到证实,作者通过一项实验(N=1,509)对比了算法预测与人类专家预测,结果并未发现决策者表现出明显的自动化偏见。 另一个关注点是选择性依从性,即决策者倾向于接受与他们既定信念和刻板印象相一致的算法建议。研究2进一步检验了这个假设,通过操纵教师种族背景,当算法建议预测少数族裔教师的绩效较低时,观察到了决策者倾向于坚守这些负面预测的现象,但无论是算法建议还是人工建议,两者之间的差异并不显著。这表明,尽管AI算法被期望保持中立,但在实践中,决策者的选择性依从可能导致实际结果偏离初衷,与中立性原则相悖。 这项研究通过实证方法揭示了在公共部门环境中,决策者处理AI算法建议时可能存在选择性偏见的问题,这对当前推动算法决策制定的政策和实践提出了挑战。未来的研究应继续深入探究如何降低这些偏差,确保算法的公正性和透明度,以实现更有效的决策支持。