引言
伴随人工智能(Artificial Intelligence, AI)的兴起,其被广泛应用于各行各业中,特别是金融、医疗、教育等敏感领域,模型参数与训练数据的安全性逐渐成为研究热点[1]。深度神经网络等模型通常依赖大规模参数存储与分布式计算,然而在模型部署与参数更新过程中,存在参数泄露与隐私攻击的风险[2]。当前,该领域研究普遍面临一个关键瓶颈:计算效率与精度的矛盾。因此,如何在保证模型精度的前提下,有效提升同态加密的计算效率,已成为推动隐私保护与AI发展的核心挑战。
针对参数泄露风险的研究,赵宁等人引入LeNet5卷积神经网络获取敏感数据随机访问共振时序特征,预测敏感数据泄露风险[3]。傅东波等人解析加密算法演进路径,以应对网络攻击[4]。龙勇在研究中提到,将差分隐私、同态加密及多方安全计算等技术相结合,可提高联邦学习系统的安全性与抗攻击能力[5]。Ahmad等人开发了一个分室式网络流行病模型,用于分析恶意代码在计算机网络中的传播[6]。这些研究明确了综合化、系统化解决方案的重要性,但其或局限于理论框架,或未能与动态主动防御机制深度结合。为此,本文旨在弥补上述不足,提出利用算法同态性完成安全计算与防泄漏。
当前,安全计算技术主流防护方法包括差分隐私(Differential Privacy,DP)、安全多方计算(Secure MultiParty Computation,SMC)与同态加密(Homomorphic Encryption,HE)[7]。其中,HE的计算复杂性可能导致处理时间和资源需求大幅增加,相比DP会引入噪声影响精度,而SMC通信开销较大。本研究不同于传统的加密方案,除了可以实现加密明文,还可以实现密文间的运算。本文方法利用同态性,在海量数据情况下可以提高数据安全性,有效降低系统开销。
本文详细内容请下载:
https://www.chinaaet.com/resource/share/2000006855
作者信息:
张恒,廖尚斌,张陈颖
(中国移动通信集团福建有限公司,福建福州350000)

