人工智能数据安全和隐私保护风险及应对建议

(整期优先)网络出版时间:2023-08-22
/ 2

人工智能数据安全和隐私保护风险及应对建议

宋启明

中船第九设计研究院工程有限公司   上海市   200090

摘要:随着人工智能技术的迅速发展,越来越多的个人数据,以及涉及国防、科研和其他敏感领域的受保护数据被用于机器学习和人工智能算法训练,这些深度融合的数据被应用在工作和生活的方方面面,由此带来数据安全、个人隐私保护的风险和挑战,引起了社会的广泛关注。本文通过制定行业标准,加快人工智能安全防护研究,建立社会多方监管机制等手段,形成人工智能数据安全和隐私保护体系,共同创造绿色安全的人工智能数据环境。

关键词:人工智能;数据安全;隐私保护;风险应对

引言

近年来,人工智能(AI)技术的飞速进步,数据的收集和使用激增。与国防、科学研究和其他敏感领域有关的宝贵数据正被纳入机器学习和人工智能算法中,用于训练目的。虽然人工智能通过训练,加快了对语音识别、图像识别、文字识别的能力,促进了包括医疗、金融、交通、军事等领域的发展,加快了大量数据处理质的飞跃,但也带来了数据安全和隐私保护的巨大挑战,本文将探讨人工智能数据安全和隐私保护风险及应对建议,以期为相关领域的研究和实践提供有益的参考和帮助。

1人工智能数据安全和隐私的风险分析

1.1个人隐私泄露风险

数据是人工智能的基础资源,机器学习需要数量大、种类多、质量高的数据进行训练,其中可能包含身份信息、邮箱地址、家庭住址、消费记录等数据,一旦这些数据被未经授权的人员或者平台使用,可能导致信息外泄的风险。

典型案例就是人脸识别数据被泄露的风险,各大金融平台在确认个人身份时,需要拍摄用户人脸的画面视频,和后台用户人脸信息进行比对。但拍摄时会将用户所在的场景保留下来,导致用户的居家布置、家庭成员、甚至用户穿着都记录下来,一旦泄露,会造成用户隐私被侵犯的严重后果。

1.2企业敏感信息外泄风险

企业也会使用人工智能技术进行数据分析和预测,当需要提供企业数据进行学习时,往往会包含财务信息、业务数据、竞争策略等商业机密或敏感信息,当这些数据被第三方知悉或非法使用,将导致重大商业损失。

最著名的就是韩国三星公司半导体商业机密泄漏事件,2023年3月,三星DS设备部门的员工为了解决半导体测试设备下载软件的代码问题,将有问题的代码上传到连接互联网的人工智能中寻找答案,造成芯片代码外泄的损失。

1.3 人工智能学习对抗产生错误的风险

数据的准确性、完整性、一致性等因素直接影响着人工智能系统安全性,由于目前人工智能对数据没用甄别能力,一旦学习数据被篡改、破坏或被他人利用,其得到的结论或推测也会截然不同,如果这些问题涉及到比较深的专业知识,非相关专业人士使用人工智能时,就很可能被带入歧途。

研究表明,可以通过在道路上或路边投射2D图像,来欺骗人工智能驾驶辅助系统(ADASs)和自动驾驶系统,人工智能识别在道路上投射的人类二维投影后,自动驾驶将进入中断,以减缓或停止车辆。在另一种情况下,在道路上投射出新的线路投影,可以欺骗人工智能认为车辆需要转弯和调整车道。以上两种方式,都将导致发生车祸,并危及乘客的生命。

2当前人工智能数据安全和隐私保护的防护技术

2.1 加密技术

数据加密是一种广泛应用于信息安全领域的技术。在人工智能中,通过采用传统的加密算法,如AES(高级加密标准)和RSA(公钥密码体制),可以对进行AI学习数据进行加密,达到传输和存储过程中有效保护数据安全性的目的。同时,随着量子计算的发展,基于量子密码学的加密技术也将成为人工智能数据安全的创新方向。

2.2去标识化技术

去标识化技术用于保护数据的身份信息,将个人识别信息从数据中删除或匿名化。在一些情况下,数据需要在进行分析之前,去除与特定个体或实体相关的标识信息,以保护隐私。去标识化技术通过使用匿名化方法或对数据进行脱敏处理,实现了数据的隐私保护。

2.3联邦学习

联邦学习(Federated machine learning/Federated Learning)是一种新兴的分布式机器学习框架。它可以在保护数据隐私的前提下,通过在本地设备上进行模型训练并仅共享模型参数,而不是原始数据,以确保数据的隐私性,同时有效解决了数据孤岛的问题。在联邦学习中,多个参与方可以合作训练一个全局模型并共享模型更新,而无需共享敏感的个人数据。

2.4差分隐私

差分隐私是一种通过在数据中引入噪声来保护隐私的方法。在人工智能中,通过对数据过引入噪声和随机化技术进行差分隐私处理,可以在保持数据可用性和可分析性的同时,最大程度地保护隐私,使得个体数据无法被还原,攻击者也就难以推断出个体的敏感信息。

3人工智能数据安全和隐私保护的应对建议

3.1 制定人工智能行业标准和试点推广工作

应制定行业的标准、类标准和服务类安全标准,来指导个人和企业受保护数据的收集、存储和使用。这些标准应具备“可信”的人工智能数据安全参考框架,涵盖数据集安全、数据标注安全、开源框架安全、人工智能应用安全、运维安全等方面,对数据访问、同意和匿名化进行严格规定,确保个人和企业能够防止未经授权对个人隐私或企业敏感信息的访问和使用。

其次,为提升人工智能安全标准的有效性和可操作性,应选取医疗、金融、智能制造、自动驾驶等重点人工智能领域的典型企业,进行采集数据的测试和分析,对人工智能行业标准适用性进行实施效果评价。

最后,对不同人工智能领域数据安全的不同风险,探索寻找可行的标准化路径,逐步推进标准的基础性研究工作。

3.2重视人工智能数据安全和隐私防护技术创新

由于OPEN AI等人工智能的普及,AI歌手和AI明星等数字新型领域也在日新月异的发展。因此,为应对潜在的人工智能数据安全威胁,尽快发展有针对性的人工智能数据安全和隐私防护技术迫在眉睫,国家《数据安全法》及《网络安全法》中均有与利用技术保障数据安全的类似表述。具体来说,应加强对国内本地人工智能的培养,以及产学研合作的重视,建立完善的人工智能系统安全监测与防护机制,包括行为分析、异常检测和入侵预警等技术手段,及时识别和阻止潜在的攻击行为,发现和解决新领域的人工智能数据安全风险和隐患。

3.3建立社会多方监管机制

一是个人方面,必须加强公众对数据安全和隐私保护的认识和教育。重要的是要让个人了解与人工智能技术相关的潜在风险和挑战,并培养个人对隐私数据负责的数据安全文化。二是企业方面,在数据存储和传输过程中应采用严格的加密技术,确保数据不易被黑客窃取。同时,建立健全的数据访问控制机制,限制非授权人员对敏感数据的访问。三是人工智能开发者方面,应秉持道德伦理,遵守数据使用的合法性,同时加强教育,提高其对人工智能数据风险的认识。四是建立多方监督机制,包括政府机构、行业监管机构、学术机构和民间社会组织在内的各种利益相关者,应合作监督数据保护政策的实施合规性。

结束语

为了应对人工智能快速发展的风险和挑战,构建一个全面的人工智能数据安全和隐私保护体系至关重要。通过制定人工智能行业安全标准,加快人工智能数据安全和隐私防护技术研究,建立个人、企业等多方监督机制,可以共同为人工智能数据创造绿色安全环境,实现人工智能与数据安全和隐私权形成良性发展。

参考文献

[1] 王玉立,张一鸣.人工智能技术加强网络安全建设的研究[J].网络空间安全,2021,10(05):73-78.

[2] 林 伟.人工智能数据安全风险及应对[J]. 情报杂志,2022,41(10):105-111,88.

[3]李昶,人工智能数据安全风险及应对[J].人工智能研究.2023(05):51-53.

[4] 朱雪峰,王秉政,林阳荟晨.人工智能数据安全和隐私保护风险和应对建议[J]. 网络空间安全,2023,14(03):30-34.

1