《电子技术应用》
您所在的位置:首页 > 人工智能 > 设计应用 > 生成式人工智能对个人信息保护的挑战与治理路径
生成式人工智能对个人信息保护的挑战与治理路径
网络安全与数据治理
万美秀
南昌大学法学院
摘要: 以ChatGPT为代表的生成式人工智能技术给各行各业带来颠覆性变革,但也引发个人信息泄露、算法偏见、虚假信息传播等个人信息侵权危机。传统“基于权利保护”的路径过于强调个人信息保护而阻碍人工智能产业的发展,“基于风险防范”的路径则更加凸显个人信息的合理利用价值,价值选择上更优。但以权利保护和风险保护共同治理,才能实现利益平衡并建立个人信息的长效保护机制。在个人信息处理规则上,以“弱同意”规则取代僵化严苛的知情同意规则;在目的限制原则上,以“风险限定”取代“目的限定”;在个人信息最小化原则上,以“风险最小化”取代“目的最小化”。在此基础上,进一步加强生成式人工智能数据来源合规监管,提升算法透明性和可解释性,强化科技伦理规范和侵权责任追究。
中图分类号:D913;TP399文献标识码:ADOI:10.19358/j.issn.2097-1788.2024.04.009
引用格式:万美秀.生成式人工智能对个人信息保护的挑战与治理路径[J].网络安全与数据治理,2024,43(4):53-60.
The challenge and governance path of generative artificial intelligence to personal information protection
Wan Meixiu
Law School, Nanchang University
Abstract: Generative artificial intelligence technology represented by ChatGPT has brought disruptive changes to all walks of life, but also triggered personal information infringement crises such as personal information disclosure, algorithmic bias, and false information dissemination. The traditional "right protection-based" path overly emphasizes personal information protection and hinders the development of the artificial intelligence industry. The "risk prevention-based" path highlights the rational use value of personal information and is better in value selection. However,only by governing together with right protection and risk protection can we achieve a balance of interests and establish a long-term protection mechanism for personal information. In terms of personal information processing rules, the rigid and strict informed consent rules should be replaced by the "weak consent" rule; in terms of purpose limitation principles, the "purpose limitation" principle should be replaced by the "risk limitation"; in terms of personal information minimization principles, the "purpose minimization" principle should be replaced by the "risk minimization". On this basis, we should further strengthen the compliance supervision of generative artificial intelligence data sources, improve the transparency and interpretability of algorithms, and strengthen the standardization of scientific and technological ethics and the investigation of tort liability.
Key words : generative AI;ChatGPT;personal information protection;governance path

引言

ChatGPT为代表的生成式人工智能掀起了全球第四次科技革命浪潮,成为带动全球经济增长的新引擎[1]。然而,作为新一代人工智能技术,生成式人工智能在不断迭代更新与变革生产关系的同时,也带来了诸多个人信息保护的法律风险。生成式人工智能的运行以海量用户的个人信息为基础,在输入端、模拟训练端、模拟优化端、输出端等各环节都离不开个人信息的使用。在大规模的数据处理和不透明的算法黑箱背景下,生成式人工智能便产生了违法收集个人信息、制造虚假有害信息、算法偏见与歧视等问题。对此,各国监管部门广泛关注,美国、法国、意大利、西班牙、加拿大等多国政府已宣布对ChatGPT进行调查监管,并出台了相应监管规范。2023年7月10日,我国网信办等七部门也联合发布了《生成式人工智能服务管理暂行办法》(以下简称“《暂行办法》”),明确了促进生成式人工智能技术发展的具体措施,对支持和规范生成式人工智能发展作出了积极有力的回应。但需要注意的是,《暂行办法》对个人信息保护的规定仅在第4、7、9、11、19条中援引《个人信息保护法》的相关规定,对使用生成式人工智能技术侵犯个人信息权益呈现出的新问题缺乏专门规定,而继续延用《个人信息保护法》面临诸多适用困境。


本文详细内容请下载:

https://www.chinaaet.com/resource/share/2000005969


作者信息:

万美秀

(南昌大学法学院,江西南昌330031)


Magazine.Subscription.jpg

此内容为AET网站原创,未经授权禁止转载。