机器学习组件安全:危险贡献模式与管理框架

PDF格式 | 934KB | 更新于2025-01-16 | 129 浏览量 | 0 下载量 举报
收藏
"本文探讨了2020年关于机器学习组件在安全性分析和管理方面的议题,作者科林·史密斯来自橡树岭国家实验室,文章着重关注如何确保嵌入机器学习功能的软件组件在安全系统中的可靠性和安全性。" 在开发和部署含有机器学习组件(LEC)的安全系统时,理解和管理这些组件的安全性至关重要。文章提出了两个主要步骤来解决这个问题:首先,定义了危险贡献模式(HCM),这是一个分类方法,用于识别ML元素可能导致系统进入危险状态的途径。其次,文章介绍了论证模式,这是一种方法,用于捕获确保HCM得以缓解所需的推理过程。此框架不仅适用于不同的学习计划,如监督学习、无监督学习和强化学习,而且不局限于特定类型的系统,包括网络和网络物理系统。 引言部分强调了LEC在各种系统中的广泛应用,尤其是安全关键领域,如交通系统和医疗设备。随着ML能力的增强,LEC可能对系统的安全产生直接影响。因此,建立LEC的安全分析框架至关重要,最终目标是实现自动化工具,以支持系统化的安全分析。 安全保证论证是将安全声明与可审计和可验证的证据关联起来的过程。安全案例是确保安全关键系统安全的重要工具,特别是在最新的标准中,它们被视为自主安全保证的核心组成部分。基于图形符号如目标结构化注释(GSN)的论证结构有助于提高可理解性和复用性。 文章指出,危险分析是安全分析和保证的基础,通常在系统层面进行,但组件级别的深入分析同样重要,如故障模式和影响分析(FMEA)。这样的自下而上方法能够识别和评估LEC潜在的风险和故障点,从而制定有效的安全策略。 通过这些步骤,文章为LEC安全分析提供了一个起点,推动了更全面、系统化的安全评估方法,以应对机器学习组件在复杂系统中日益增长的应用所带来的挑战。未来的研发工作应进一步发展这一框架,以适应不断变化的ML技术和应用场景,确保在保障安全的同时,充分利用ML的潜力。

相关推荐