《电子技术应用》
您所在的位置:首页 > 人工智能 > 设计应用 > 基于多尺度注意力融合网络的胃癌病理图像分割方法*
基于多尺度注意力融合网络的胃癌病理图像分割方法*
电子技术应用
张婷1,秦涵书1,赵若璇2
(1.重庆医科大学附属第一医院 信息中心,重庆 400016;2.重庆大学 光电技术与系统教育部重点实验室,重庆 400044)
摘要: 近年来,随着深度学习技术的发展,基于编解码的图像分割方法在病理图像自动化分析上的研究与应用也逐渐广泛,但由于胃癌病灶复杂多变、尺度变化大,加上数字化染色图像时易导致的边界模糊,目前仅从单一尺度设计的分割算法往往无法获得更精准的病灶边界。为优化胃癌病灶图像分割准确度,基于编解码网络结构,提出一种基于多尺度注意力融合网络的胃癌病灶图像分割算法。编码结构以EfficientNet作为特征提取器,在解码器中通过对多路径不同层级的特征进行提取和融合,实现了网络的深监督,在输出时采用空间和通道注意力对多尺度的特征图进行注意力筛选,同时在训练过程中应用综合损失函数来优化模型。实验结果表明,该方法在SEED数据集上Dice系数得分达到0.806 9,相比FCN和UNet系列网络一定程度上实现了更精细化的胃癌病灶分割。
中图分类号:TP391 文献标志码:A DOI: 10.16157/j.issn.0258-7998.233934
中文引用格式: 张婷,秦涵书,赵若璇. 基于多尺度注意力融合网络的胃癌病理图像分割方法[J]. 电子技术应用,2023,49(9):46-52.
英文引用格式: Zhang Ting,Qin Hanshu,Zhao Ruoxuan. Gastric cancer pathological image segmentation method based on multi-scale attention fusion network[J]. Application of Electronic Technique,2023,49(9):46-52.
Gastric cancer pathological image segmentation method based on multi-scale attention fusion network
Zhang Ting1,Qin Hanshu1,Zhao Ruoxuan2
(1.Information Center, The First Affiliated Hospital of Chongqing Medical University, Chongqing 400016, China; 2.Key Laboratory of Optoelectronic Technique System of the Ministry of Education, Chongqing University, Chongqing 400044,China)
Abstract: In recent years, with the development of deep learning technology, the research and application of image segmentation methods based on coding and decoding in the automatic analysis of pathological images have gradually become widespread. However, due to the complexity and variability of gastric cancer lesions, large scale changes, and the blurring of boundaries caused by digital staining images, segmentation algorithms designed solely from a single scale often cannot obtain more accurate lesion boundaries. To optimize the accuracy of gastric cancer lesion image segmentation, this paper proposes a gastric cancer image segmentation algorithm based on multi-scale attention fusion network using the coding and decoding network structure. The coding structure uses EfficientNet as the feature extractor. In the decoder, the deep supervision of the network is realized by extracting and fusing the features of different levels of multi-path. When outputting, the spatial and channel attention is used to screen the multi-scale feature map for attention. At the same time, the integrated loss function is used in the training process to optimize the model.The experimental results show that the Dice coefficient score of this method on the SEED data set is 0.806 9, which to some extent achieves more refined gastric cancer lesion segmentation compared to FCN and UNet series networks.
Key words : pathological image;image segmentation;attention fusion

0 引言

胃癌是全球第5位的常见癌症和第4位的癌症死亡原因[1],临床上目前主要根据胃镜活检和医生人工经验来判断切片病灶发展情况。临床人工病理筛查需要花费专业病理医生大量的时间,且由于临床经验的差异和医疗资源的限制,也存在一定的漏诊和误诊比率。近年来,随着深度学习在计算机视觉领域的成功应用,计算机辅助检测在医学上的应用也越来越广泛。

基于深度学习的医用图像分割方法可以有效提取病灶目标区域,辅助医生决策,提升诊断效率和准确性。这些方法主要包括基于经典的全卷积神经网络(Fully Convolution Networks ,FCN),以及UNet、UNet++系列和DeepLab系列等基于编解码的分割网络[2-7]。常用的基于编解码的病理图像分割网络基本流程如图1所示。以胃癌病灶图像为例,首先输入获取的病理图像,经过图像预处理(预处理阶段一般包括图像增强和图像增广等),之后送到编码解码网络,进行图像特征提取和图像恢复,对于网络直接预测的分割结果可适当增加部分后处理操作,包括形态学后处理等降噪方式来提升分割结果的精确性。其中特征提取网络主要由卷积层、下采样模块和激活函数等组成,图像恢复模块是对特征提取后的特征图进行重点区域捕捉定位和大小恢复,得到与输入大小相对应的输出图像,主要包括上采样模块、特征融合模块和激活函数。最后输出经过反向传播计算预测结果与标注值之间的误差,通过梯度下降设置合适的学习率迭代训练,得到损失函数极小值以优化预测结果。



本文详细内容请下载:https://www.chinaaet.com/resource/share/2000005636




作者信息:

张婷1,秦涵书1,赵若璇2

(1.重庆医科大学附属第一医院 信息中心,重庆 400016;2.重庆大学 光电技术与系统教育部重点实验室,重庆 400044)

微信图片_20210517164139.jpg

此内容为AET网站原创,未经授权禁止转载。