抽象论证的智能系统:解释语义与计算挑战

0 下载量 91 浏览量 更新于2024-06-18 收藏 1.96MB PDF 举报
"抽象论证的智能系统与应用:解释语义和张力的计算问题调查" 在人工智能和决策支持系统的背景下,解释的可理解和可接受性是至关重要的。这篇论文聚焦于Dung(1995)提出的抽象论证框架,这是一种形式化的理论,用于评估和解释由AI系统产生的决策。抽象论证通过有向图来表示论点和它们之间的冲突关系,而这些关系构成了论证框架。研究的主要目标是找出一组论点,即扩展,这些论点在特定语义下被视为可接受。 文章指出,当前的研究主要关注论点的全局可接受性,即判断一个论点是否属于所有可能的扩展。然而,这篇论文拓宽了视角,探讨了抽象论证中的解释概念。作者定义了一种可视化的解释,它们是论证图的子图,反映了论点之间的结构和相互作用。这种解释不仅考虑了单一论点的可接受性,还关注了如何通过聚合和分解来理解这些结构。 作者进一步调查了这些解释的图形属性,探讨了它们是否能够满足理想的解释标准。这包括分析解释的可平面性,即是否存在一种方式将论证图二维平铺而不导致边的交叉,因为这可以帮助提高解释的直观性和理解性。此外,他们还考虑了张力隶属度(EX张力),这是一个衡量不同论点之间冲突程度的概念,对于理解为什么某些论点被接受而其他论点被拒绝至关重要。 论文还提到了先前的研究,如Baumann和Ulbricht(2021)、Borg和Bex(2020b, 2021c)、Fan和Toni(2015a)、Liao和vanderTorre(2020)以及Ulbricht和Wallner(2021),这些研究提出了不同的方法来识别作为解释的参数集。然而,作者认为,仅仅增加参数可能并不足以深入解释论证过程。 这篇论文在抽象论证的语境中深入研究了解释的计算问题,提出了可视化的解释和张力分析的新视角,旨在促进对AI系统决策过程的更深层次理解。这项工作对于推动人工智能的透明度、可解释性和可信度具有重要意义,尤其是在机器学习和其他依赖于复杂推理的领域。通过这种方式,可以更好地理解AI系统如何处理信息并做出决策,从而增强用户对系统决策的信任。