人工智能安全是专注于保护人工智能系统免受攻击、确保其决策过程的安全性和可靠性的领域。随着AI技术的快速发展和广泛应用,其安全性问题日益受到关注。AI安全涉及多个层面,包括数据安全、模型安全、应用安全等。数据安全关注于防止数据泄露和篡改,模型安全旨在抵御对AI模型的恶意攻击,如对抗性攻击。应用安全则涉及到AI系统在特定场景下的安全运行,如自动驾驶、智能家居等。AI安全的目标是确保AI系统在面对各种威胁时能够保持正常运作,同时保护用户隐私和数据不被滥用。为了实现这一目标,研究人员正在开发各种防御机制,包括安全算法、加密技术、以及对AI系统的安全评估和监控。此外,随着AI技术的发展,相关的法律法规和伦理标准也在不断完善,以促进AI技术的健康发展。
随着云计算的普及,数据存储和处理逐渐转向由第三方提供的云平台,这带来了隐私保护和安全性的新挑战。可搜索加密,旨在解决加密数据在云端存储时如何进行有效的检索问题。其核心目标是,在确保数据隐私的前提下,允许对加密数据进行搜索操作,而无需解密。这意味着用户可以在云中存储敏感数据,并仍能执行如关键词搜索、范围查询等操作,同时保持数据的机密性。可搜索加密不仅增强了数据的安全性,还确保了云计算平台的高效性,因为它支持对大量加密数据进行高效的索引和查询。随着对数据隐私要求的不断提高,对可搜索加密的高效性、安全性都提出了新的需求。
联邦学习是一种分布式的机器学习技术,在传统机器学习中,通常需要将数据集中到一个服务器上进行训练,这可能导致数据泄露或隐私问题。联邦学习的核心流程包括全局模型的初始化、本地设备的模型训练、参数上传和服务器聚合。首先,中央服务器初始化一个全局模型,并将其发送到参与设备。每个设备独立训练本地模型,再将更新的模型参数上传给服务器进行聚合,生成新的全局模型,再分发回各设备进行新一轮训练。而联邦学习的独特之处在于,它不需要将数据上传,而是让数据保留在设备本地,每个设备在本地完成模型训练后,只将模型的参数(如权重更新)发送到中央服务器。异构性和隐私安全是目前联邦学习的研究热点,其中异构性主要包括设备异构性和数据异构性。研究者通过自适应优化算法、个性化模型训练等方法应对这些问题,提升全局模型性能与收敛性。隐私安全方面,联邦学习面临后门攻击和中毒攻击等威胁。后门攻击通过恶意训练植入特定触发行为,中毒攻击则通过数据或参数篡改影响模型表现。针对这些威胁,差分隐私、安全多方计算以及鲁棒聚合算法被用于加强隐私保护与模型安全。
由于深度生成模型和编辑技术的进步,数字图像操作风险近年来变得更加严重,其很容易以视觉上难以察觉的方式产生篡改的图像。传统的局部图像编辑方法,包括复制-移动、拼接和移除,作为目前常见的伪造类别,需要细致和熟练的处理。因此开发一种能够精准捕捉伪造图像的痕迹并实现准确定位篡改区域的方法是至关重要的。图像篡改检测是图像取证中一项重要的工作,致力于定位被篡改过的真实图像。近年来,深度学习方法广泛应用于该领域,比传统的基于特征的方法具有更高效的判别能力。目前基于深度学习的图像篡改检测方法一般采取以下几种方法法:使用滤波器如(SRM、Bayar等)更好的捕捉篡改痕迹,使用边缘算子如(Sobel、Laplace等)辅助模型实现更精细的边缘定位。
隐写术旨在以不可见的方式将秘密信息藏入特定载体中,从而做到秘密信息的安全传递,其历史悠久,最早可以追溯到古希腊时期。在近现代,随着数字载体的出现、兴起、并逐渐成为主流的信息传递方式,隐写术也逐渐转变成为专门处理数字领域隐藏秘密的技术,包括音频隐写、3D隐写、视频隐写、图像隐写等。其中,图像隐写特指将秘密信息藏入特定的载体图像中,是隐写领域最为热点的研究方向。近年来,随着深度学习的兴起,逐渐有学者将深度学习算法引入图像隐写中,拥有比传统图像隐写算法更好的隐藏信息能力。基于深度学习的图像隐写方法主要有两种。基于自编码器的隐藏与基于可逆神经网络(INN)的隐藏。