工程4(2018)1社论网络安全的新前沿滨兴方a,b,c,奎仁d,严家ea中国电子集团公司,北京100846,中国b广州大学,中国c北京邮电大学,中国北京100876 d纽约州立大学布法罗分校,美国纽约州布法罗14228 e国防科技大学,中国长沙410073安全技术是一种特殊的配套技术,是为它所服务的底层应用程序开发的。在当今社会中,它变得越来越重要近年来,我们见证了尖端计算和信息技术在云计算、边缘计算、物联网(IoT)、人工智能(AI)、工业4.0、大数据、区块链技术等广泛新兴领域的激增。虽然这些技术有可能产生巨大的影响,但它们也带来了巨大而不可避免的安全挑战。据观察,安全事件在数量和规模上都在迅速增长,大多数尖端技术都固有地伴随着一系列安全和隐私漏洞。因此,建立安全和隐私意识的环境,为这些新技术的用户提供高质量的服务随着网络安全研究的前沿向未开发领域延伸,这些新兴技术的独特性使其难以融入传统的安全范式。因此,识别新特征,仔细检查这些新兴技术的新安全需求,然后将它们正确地集成到开发过程的早期阶段至关重要需要计算和存储能力来赶上现代科学和商业应用所需的数据量飞速增长的步伐已经导致了云计算技术的发展。在这种背景下,云计算,一种集成了大量计算资源并提供可消费的在线服务,有利于资源有限的云客户端。尽管这种有前途的技术带来了显着的好处,其特定的功能可能会导致不可忽视的和前所未有的安全问题,限制其广泛使用。缺乏数据隐私保护已被公认为云计算的主要问题之一,特别是对于专有数据或高度敏感的记录。使这个问题变得棘手的是,加密可能会导致数据质量的损失,可能会损害数据的原始功能,例如关键字搜索和数学计算。解决这些安全挑战的潜在研究方向包括:丰富加密数据操作的功能,使其面向复杂应用,提供比现有方法更强的安全保证,以及推进更实用的实现。互联网的另一个重要的未来发展方向是物联网,在物联网中,各种形式的互连物理设备(通常嵌入电子设备、软件、传感器、执行器等)共同执行复杂的传感和计算任务,并提供前所未有的服务。将物联网融入我们的生活将彻底改变人们与物理世界的互动方式,并将为医疗保健、交通运输和制造业等领域带来巨大利益。然而,物联网的兴起也引起了人们对网络攻击威胁的日益关注。不断扩大的各种互连物联网设备为对手提供了巨大的攻击面。此外,物联网设备的异构接口、系统和硬件的组合对保护这些设备提出了重大挑战未能保护IoT设备可能允许攻击者访问私人信息和/或对设备的未经授权的控制。由于多样化的通信协议,针对物联网设备的威胁也是可能的目前使用的各种无线接入技术不仅增加了物联网网络的复杂性,而且还暴露了大量的可扩展性。利用这些漏洞可能会允许入侵者嗅探物联网设备生成的数据或危及设备本身。为了解决这个问题,研究人员必须提供解决方案来保护联网的物联网设备,使用户能够执行https://doi.org/10.1016/j.eng.2018.02.0072095-8099/©2018 THE COMEORS.由爱思唯尔有限公司代表中国工程院和高等教育出版社有限公司出版。这是一篇基于CC BY-NC-ND许可证的开放获取文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。可在ScienceDirect上获得目录列表工程杂志主页:www.elsevier.com/locate/eng2B. Fang et al. / Engineering 4(2018)1跨各种设备的安全策略,使用户能够更好地控制和管理敏感信息,并减轻全面更新设备的挫折感。人工智能作为一种强大的工具,给网络安全带来了一系列一方面,从网络钓鱼检测和监控系统到基本加密算法的安全技术在人工智能的帮助下变得越来越强大和智能例如,传统的垃圾邮件检测模型正在通过与严格的网络钓鱼分析相关的专用机器学习模型进行更新,可以实现超过99%的检测准确率。使用人工智能而不是人类视频分析师可以提高效率和准确性,并提供增强的威胁感知。此外,随着生成对抗网络(GAN)的出现,AI可能会在不久的将来彻底改变密码技术。人工智能带来的所有安全技术进步都归功于其自我学习和自我增强的能力。人工智能能够挖掘和学习各种类型的数据,如垃圾邮件,消息和视频,然后发展一个自动检测/防御系统。持续的自我训练将继续提升人工智能系统的性能,包括其稳定性、准确性、效率和可扩展性。因此,人工智能具有改变安全未来的巨大潜力。另一方面,AI也在推动黑客能力的边界。由人工智能驱动的自主黑客机器可以制作敏感信息并找到计算机系统中的漏洞,从而使打击黑客变得更加困难。更糟糕的是,人工智能能够从大量看似不敏感的数据中学习敏感信息,例如个人偏好。这些事实使我们相信,黑客武器化,人工智能将创造更复杂和越来越隐蔽的自动攻击,这将需要有效的检测和缓解技术。从另一个角度考虑人工智能与网络安全之间的相互作用某些任务的机器学习模型被认为是有价值的知识产权,通常需要花费大量精力才能获得。这种模型可能依赖于敏感的训练数据,或者可能在安全应用中运行。然而,已经表明,机器学习模型可以在没有训练数据或模型参数的先验知识的情况下被窃取;模型的功能可以仅使用可公开访问的查询接口来复制。的实例受害者包括BigML和Amazon Machine Learning等在线机器学习服务。此外,甚至可以通过利用与测试数据的预测一起揭示的置信度值来推断训练例如,对手可以近似面部识别模型的训练数据中使用的图像。通过这种方式,可以暴露培训过程因此,保护机器学习模型和训练数据免受攻击是一个关键且具有挑战性的问题此外,机器学习模型,特别是深度神经网络,可能会被人类无法感知的对抗性示例所愚弄。以图像识别为例:一幅在人眼看来像鸟的图像可以被深度神经网络识别为一艘船,只要对手在图像中添加特制的不可见噪声。这种不确定性成为人工智能在安全关键场景(如自动驾驶汽车和计算机辅助诊断)中应用的关键风险。因此,在不久的将来,有效地检测对抗性的例子需要大量的研究工作。网络安全在过去十年左右的时间里一直是一个不断流行的流行词。不断发展的安全技术本质上是由新生技术的成功驱动的:云、物联网、人工智能等等。网络安全技术的前沿不断扩大,因为这些基础应用程序中出现了不断变化的安全威胁。新的网络安全技术将需要对网络、计算系统和安全的理论和工程基础进行检查,作为一个多学科的主题。通过调查系统功能和底层应用程序的安全需求,我们最终可以解决具有挑战性的安全问题,并创建一个真正安全的网络空间。通过这期特刊,我们希望将安全、隐私和计算社区的研究人员、开发人员和从业人员聚集在一起,继续塑造网络安全的未来。确认本 工 作 得 到 了 国 家 自 然 科 学 基 金 ( U1636215 、 61572492 、61650202、61772236、61372191)和国家重点研发计划(2016YFB0800802 、 2016YFB 0800803 、 2016YFB 0800804 、 2017YFB0802204 、 2016QY 03D0601 、 2016YFB 0800804 、 2016YFB08002204 、 2016QY 03D0601 、 2016YFB 080080803 、 2016YFB080080804 、 2017YFB 0802204 、 2016QY 03D0601 、 2016YFB080080808、22016QY03D0603和2016YFB0800303)。