《电子技术应用》
您所在的位置:首页 > 人工智能 > 设计应用 > 基于行政执法责任界分的生成式人工智能内容安全监管研究
基于行政执法责任界分的生成式人工智能内容安全监管研究
网络安全与数据治理
盛小宝,刘晋名,姚迁
公安部第三研究所
摘要: 生成式人工智能(Generative AI,GenAI)产业结构和内容生成机制的特殊性,导致其内容安全监管面临诸多挑战,特别是在行政执法责任的划分上。目前,公安网安部门、网信部门和工业和信息化部在GenAI内容监管中存在职责模糊与交叉的问题,进而影响监管效果。具体表现为技术手段与监管需求错配、现有法律法规适用性不足、公众认知不足和企业责任履行不力等具体面向。对此,亟需优化监管制度路径:一是以明确各执法部门的职责边界作为起点,建立健全跨部门的信息共享与协同机制;二是通过技术赋能,构建完善内容安全的分级治理框架;三是发挥企业主体积极性,协同赋能推动监管效率之提升。未来,应推动法律、技术与管理机制的深度融合,构建更加科学、规范的GenAI内容安全监管体系,为网络空间安全和社会秩序提供有效的制度保障。
中图分类号:D922;TP399文献标志码:ADOI:10.19358/j.issn.2097-1788.2026.01.009
中文引用格式:盛小宝,刘晋名,姚迁. 基于行政执法责任界分的生成式人工智能内容安全监管研究[J].网络安全与数据治理,2026,45(1):56-63.
英文引用格式:Sheng Xiaobao, Liu Jinming, Yao Qian. Research on the content safety regulation of generative artificial intelligence based on the division of administrative enforcement responsibilities[J].Cyber Security and Data Governance,2026,45(1):56-63.
Research on the content safety regulation of generative artificial intelligence based on the division of administrative enforcement responsibilities
Sheng Xiaobao, Liu Jinming, Yao Qian
Third Research Institute of the Ministry of Public Security
Abstract: The uniqueness of the industrial structure and content generation mechanism of generative artificial intelligence (GenAI) has led to numerous challenges in content security supervision, particularly in the division of administrative enforcement responsibilities. Currently, there is ambiguity and overlap in the roles of public security cybersecurity departments, the Cyberspace Administration, and the Ministry of Industry and Information Technology (MIIT) in GenAI content regulation, leading to unclear enforcement responsibilities, and consequently, ineffective regulation. This issue manifests in mismatches between technical tools and regulatory needs, inadequate applicability of existing laws and regulations, insufficient public awareness, and lack of corporate responsibility. To address these challenges, the regulatory framework must be optimized: First, the clear delineation of responsibilities across enforcement agencies should be prioritized, with the establishment of a robust informationsharing and collaboration mechanism; second, leveraging technology to build a comprehensive, tiered governance framework for content safety; third, encouraging corporate responsibility and collaborative efforts to improve regulatory efficiency. Moving forward, it is crucial to integrate law, technology, and management mechanisms to create a more scientific and standardized regulatory system for GenAI content safety, providing effective institutional safeguards for cybersecurity and social order.
Key words : generative artificial intelligence; content safety; administrative enforcement boundaries; responsibility delineation

引言

在数字化技术蓬勃发展的背景下,生成式人工智能(Generative AI,GenAI)凭借其在文本、图像、音频等领域的强大内容生成能力,正在信息传播、内容创作和社会互动等诸多领域引发深刻而颠覆性的变革。从GPT系列的自然语言生成模型到DALLE、Stable Diffusion等图像生成模型,GenAI通过深度学习算法(如生成对抗网络GANs和变分自编码器VAEs),基于海量数据训练,实现了高质量、与训练数据相似的内容自动生成。这一技术不仅广泛应用于娱乐、教育、新闻等行业,还通过其基础性支撑作用辐射至众多领域,推动产业创新发展、经济运行模式变革和社会进程迭代。然而,随着GenAI技术的快速迭代与广泛应用,其引发的内容安全问题日益突出,成为限制技术健康发展的关键挑战。首先,GenAI技术的迅速发展加剧了虚假信息的传播,可能严重误导公众认知,扰乱社会秩序,甚至威胁国家网络安全。其生成的虚假内容不仅可能被不法分子利用操控舆论,还可能被用于制造社会对立,进而影响社会稳定。其次,内容版权侵权问题频发,侵犯创作者的合法权益,影响创作生态的健康发展。再次,GenAI技术在处理海量数据时存在极高的隐私泄露风险,可能导致个人信息的非法获取和滥用,严重威胁个人权益保护,甚至对国家的数据安全形成潜在威胁。这些问题的出现呼应了“科林格里奇困境”(Collingridge Dilemma)。正如大卫·科林格里奇(David Collingridge)所指出,在技术发展的早期,其社会后果往往难以预见;而当不良后果显现时,该技术可能已深度嵌入社会经济结构,使得实施有效控制变得异常困难[1]。针对这些问题,GenAI内容安全监管已成为维护国家网络安全、社会稳定与个人权益保护的重要任务。然而,目前我国在GenAI内容安全监管领域仍面临诸多挑战,尤其是行政执法责任划分不明确,导致监管效率低下,监管责任难以落实。现行监管体系下,涉及GenAI内容监管的部门众多,包括公安机关网络安全部门(以下简称“网安部门”)、国家互联网信息办公室(以下简称“网信部门”)、工业和信息化部(以下简称“工信部门”)等。由于GenAI内容的复杂性与多样性,各部门在实际监管过程中职责交叉和界限模糊的现象屡见不鲜。此外,现有监管制度在应对GenAI技术快速发展时也暴露出诸多不足,难以满足技术迭代与应用场景变化带来的治理需求。为实现GenAI内容安全的有效治理,应聚焦行政执法责任划分,深入分析GenAI内容安全的内涵及其监管现状,剖析当前面临的主要障碍,从风险导向出发,提出科学合理的制度设计与可行的监管措施,明确GenAI内容安全的行政执法责任,完善行政执法体系,构建良性技术应用生态,从而为维护国家安全、保障社会和谐提供有力支撑。


本文详细内容请下载:

http://www.chinaaet.com/resource/share/2000006934


作者信息:

盛小宝,刘晋名,姚迁

(公安部第三研究所,上海200100)

2.jpg

此内容为AET网站原创,未经授权禁止转载。