抽象论证的智能系统:解释语义与计算挑战
104 浏览量
更新于2024-06-18
收藏 1.96MB PDF 举报
"抽象论证的智能系统与应用:解释语义和张力的计算问题调查"
在人工智能和决策支持系统的背景下,解释的可理解和可接受性是至关重要的。这篇论文聚焦于Dung(1995)提出的抽象论证框架,这是一种形式化的理论,用于评估和解释由AI系统产生的决策。抽象论证通过有向图来表示论点和它们之间的冲突关系,而这些关系构成了论证框架。研究的主要目标是找出一组论点,即扩展,这些论点在特定语义下被视为可接受。
文章指出,当前的研究主要关注论点的全局可接受性,即判断一个论点是否属于所有可能的扩展。然而,这篇论文拓宽了视角,探讨了抽象论证中的解释概念。作者定义了一种可视化的解释,它们是论证图的子图,反映了论点之间的结构和相互作用。这种解释不仅考虑了单一论点的可接受性,还关注了如何通过聚合和分解来理解这些结构。
作者进一步调查了这些解释的图形属性,探讨了它们是否能够满足理想的解释标准。这包括分析解释的可平面性,即是否存在一种方式将论证图二维平铺而不导致边的交叉,因为这可以帮助提高解释的直观性和理解性。此外,他们还考虑了张力隶属度(EX张力),这是一个衡量不同论点之间冲突程度的概念,对于理解为什么某些论点被接受而其他论点被拒绝至关重要。
论文还提到了先前的研究,如Baumann和Ulbricht(2021)、Borg和Bex(2020b, 2021c)、Fan和Toni(2015a)、Liao和vanderTorre(2020)以及Ulbricht和Wallner(2021),这些研究提出了不同的方法来识别作为解释的参数集。然而,作者认为,仅仅增加参数可能并不足以深入解释论证过程。
这篇论文在抽象论证的语境中深入研究了解释的计算问题,提出了可视化的解释和张力分析的新视角,旨在促进对AI系统决策过程的更深层次理解。这项工作对于推动人工智能的透明度、可解释性和可信度具有重要意义,尤其是在机器学习和其他依赖于复杂推理的领域。通过这种方式,可以更好地理解AI系统如何处理信息并做出决策,从而增强用户对系统决策的信任。
104 浏览量
142 浏览量
2021-03-17 上传
点击了解资源详情
454 浏览量
728 浏览量
102 浏览量
225 浏览量
1051 浏览量

cpongm
- 粉丝: 6
最新资源
- MATLAB在大学生数学建模竞赛中的应用研究
- Windows XP风格的333个GIF图标下载
- 利用GDScript进行指导性游戏开发:HoppyDays项目解析
- QCustomPlot 2.0.1版发布:图表绘制与PDF导出解决方案
- 数字电路技术第五版课后习题详解及答案
- 探索RTL1090软件:无线电爱好者的新选择
- 探索事实空间的可视化:使用JavaScript构建视觉世界
- Android API中文版查看教程
- AH计算器软件v4.13:傻瓜型语音表达式计算器
- NodeJS + MongoDB用户注册登录API实现指南
- MFC开发实践:FAT32文件分类器教程
- RGB到Lab颜色空间转换的Matlab实现
- 自定义状态栏颜色,修改状态栏背景与图标色
- MingQQ Android开源项目源代码解析
- 掌握Servlet技术实现文件上传及处理方法
- 手机社区网站仿百田圈圈模板设计与应用