《电子技术应用》
您所在的位置:首页 > 其他 > 设计应用 > 数据组件:一种面向数据跨域流通可信抽象和封装方法
数据组件:一种面向数据跨域流通可信抽象和封装方法
网络安全与数据治理
林绍福1,李云江1,王宇航2,贾晓丰2
1.北京工业大学计算机学院;2.北京市大数据中心
摘要: 数据作为关键生产要素,具有自由流动、动态组合、跨域融合和使用增值等特征,但在跨域流通、数据孤岛连通与标准化处理等方面仍面临挑战。从软件系统视角提出数据组件抽象模型和封装方法,将数据要素抽象为独立、轻量、可复用的最小单元即数据组件,具备可寻址、可交换、可操作与可管控特性;设计实现数据组件注册和发布机制,以规范化协议支撑数据组件发现与互操作,提供统一描述、封装发布、发现获取、动态组合与可信交互等能力,支撑数据要素跨域可信高效流通。以健康养老数据共享场景为例,设计实现数据组件共享原型系统进行验证,实验表明,相较传统微服务模式,跨域传输成功率提升13%,访问成功率提升11%,检索命中率提升15 %,调度成功率提升20 %。
中图分类号:TP311.13;TP393.09文献标志码:ADOI:10.19358/j.issn.2097-1788.2026.04.003
中文引用格式:林绍福,李云江,王宇航,等. 数据组件:一种面向数据跨域流通可信抽象和封装方法[J].网络安全与数据治理,2026,45(4):17-26.
英文引用格式:Lin Shaofu,Li Yunjiang,Wang Yuhang, et al. Data components: a trusted abstraction and encapsulation method for cross-domain data flow
[J].Cyber Security and Data Governance,2026,45(4):17-26.
Data components: a trusted abstraction and encapsulation method for cross-domain data flow
Lin Shaofu1,Li Yunjiang1,Wang Yuhang2,Jia Xiaofeng2
1. Faculty of Information Technology, Beijing University of Technology; 2. Beijing Big Data Center
Abstract: Data, as a key production factor, has characteristics such as free flow, dynamic combination, crossdomain integration, and valueadded utilization. However, it still faces challenges in crossdomain circulation, connecting data silos, and standardized processing.This paper proposes a data component abstraction model and encapsulation method from a software system perspective, abstracting data elements into independent, lightweight, and reusable minimum units—data components—possessing addressable, exchangeable, operable, and manageable characteristics. A data component registration and publishing mechanism is designed and implemented, using standardized protocols to support data component discovery and interoperability, providing capabilities such as unified description, encapsulation and publishing, discovery and acquisition, dynamic combination, and trusted interaction, supporting the reliable and efficient crossdomain flow of data elements. Taking a health and elderly care data sharing scenario as an example, a prototype system for data component sharing is designed and implemented for verification. Experimental results show that compared to the traditional microservice model, the cross-domain transmission success rate increases by 13%, the access success rate increases by 11%, the retrieval hit rate increases by 15%, and the scheduling success rate increases by 20%.
Key words : data component; data decoupling; trusted abstraction; standardized encapsulation; interoperability mechanism

引言

互联网以开放式体系结构和标准化协议在物理网络之上构建了一个由主机组成的虚拟数据传输网络,从而屏蔽了下层物理网络的通信细节,在异构的物理网络之上形成了全球一体化的网络空间。随着互联网的发展和大数据时代的到来,数据成为互联网中最具价值的核心资源。然而,在现有架构中,数据高度依赖于具体的应用系统和底层平台,未能实现真正的解耦,导致数据在访问、共享和流通过程中面临诸多障碍。数据不解耦造成的问题主要体现在以下几个方面:

(1)数据高度分散在各类应用系统中。在当前复杂的数据生态中,数据分散存储与异构化是难以完全消除的客观存在,传统的数据管理机制使数据在跨系统调用时存在反复的格式转换和接口适配,使得数据的检索、流通和访问使用效率较低。亟需更加优化、高效的解决方案通过标准化的封装与接口机制,来降低跨系统数据访问与整合的开销。

(2)数据结构、语义和接口标准高度异构。在不同应用场景下,数据格式多样、语义难以统一、接口规范缺失,使系统之间的互操作性始终面临挑战。当前主流的数据管理机制依然存在因异构造成的效率瓶颈,需要研究如何有效化解数据异构性衍生的数据互操作效率。

(3)数据深度依赖具体的计算任务和运行环境。数据的这一客观特性,使得数据仅在计算任务生命周期内是有效“存在”和使用的,而原本零散、短暂的数据难以被追溯和利用,需要研究如何降低数据与计算任务和运行环境的依赖性,以实现数据跨任务生命周期、跨系统环境的有效流转和利用,提高数据可追溯性和利用效率。

(4)数据紧耦合于封闭系统,外部主体难以有效访问或调用。在面向对象、面向服务等解耦和封装技术基础上,如何更加有效地降低跨系统、跨行业数据复用的难度,使数据更易发现、获取和利用,对于充分释放数据要素价值、发挥赋能作用具有重要意义。

因此,为实现数据在互联网空间中的高效流通与治理,必须从根本上改变“数据附属于计算”的技术逻辑,推进数据的抽象、封装与解耦。由此,数据空间应运而生,作为互联网架构从“以计算为中心”向“以数据为中心”演进的关键形态,其核心在于将数据从计算过程的附属角色中解放出来,确立其作为一阶实体的独立地位。围绕这一理念,数据不再仅作为计算任务中的输入输出,而是具备自主标识、独立生命周期和标准交互能力的基础资源。数据解耦的推进过程具有阶段性特征,主要经历了三个发展阶段,每个阶段都对应着不同的目标、抽象方式和技术机制。第一次解耦是数据与应用程序的解耦,其目标是屏蔽数据访问的复杂性,降低应用系统的开发门槛,该阶段数据基本抽象是ER模型,核心系统形态有数据库和数据仓库。第二次解耦是数据与业务系统的解耦,目标是屏蔽数据汇聚分析的复杂性,降低企业级系统的开发门槛,数据基本抽象是“键-值对”KV模型,核心系统形态有数据湖。第三次解耦是数据与生产和消费主体的解耦,目标是屏蔽数据流转与使用的复杂性,降低数据要素社会化供给、流通与应用的门槛。此次解耦的相关理论和技术还在研究发展中。

基于以上问题以及数据解耦的发展,相关组织及学者开展数据要素基础设施技术研究,旨在探索出一条安全、高效的国家数据流通利用基础设施的有效技术路径。当前正在研究的主要技术路线见表1。

通过对万维网[6]和数字对象架构(Digital Objec Architecture,DOA)的分析,面向数据要素治理应用场景和数据加工利用的第三次解耦趋势,本文以构建数据要素高效流通的基础理论模型和技术机制为中心,聚焦数据组件的理论模型构建和技术实现,厘清其作为数据要素流通最小单元的基本特征和可寻址、可交换、可操作与可管控等关键特性,开展数据组件模型、标识机制、互操作协议及注册发布发现等核心机制的研究,旨在建立一套具有规范性、可扩展性和可操作性的技术框架,实现数据组件在多主体、多系统间的发现、获取、流转与共享利用,推动数据要素在可信环境下高效、安全、有序地流通。


本文详细内容请下载:

http://www.chinaaet.com/resource/share/2000007055


作者信息:

林绍福1,李云江1,王宇航2,贾晓丰2

(1.北京工业大学计算机学院,北京100124;2.北京市大数据中心,北京100193)

2.jpg

此内容为AET网站原创,未经授权禁止转载。