文献标识码: A
DOI: 10.19358/j.issn.2096-5133.2020.12.008
引用格式: 蔡春兵,吴翠平,徐鲲鹏. 基于深度学习的视频火焰识别方法[J].信息技术与网络安全,2020,39(12):44-51.
0 引言
传统的气体型、感温型、感烟型和感光型等火灾探测器[1],依靠火灾中的CO、CO2、温度、烟雾微粒、热和辐射等物理特征来探测火灾发生。因其通常与火源距离较远,导致可靠性与实时性都不足。视频火灾探测技术无需靠近火源,可实现大视野、远距离监控,广泛应用于大型工厂、森林和煤矿等大空间和室外开放空间的火灾探测。
火焰具有明显的视觉特征,传统视频火灾探测算法通常根据火焰的颜色、形状和纹理等静态特征,以及闪烁频率、面积增长、形态变化和移动方向等动态特征进行识别。CHEN T H等人[2]结合RGB色彩分割和火焰运动特性进行火焰像素的判定。KO B C[3]等人通过检测运动区域和火焰颜色判断来提取候选火焰区域,并对候选区域提取特征,用于训练支持向量机SVM分类器,实现对火与非火的判定。MEI Z[4]等人通过帧间差分法和火焰颜色模型确定候选着火区域,然后提取火灾候选区域特征组成的特征向量,用于训练BP神经网络模型来识别火灾。候选区域的特征提取对后续分类器性能的好坏起到决定性的作用,传统视频火焰探测需要人工设计复杂的特征提取方法,在识别率和泛化性能上都有一定的局限性。
深度学习为传统自然语言处理、计算机视觉等领域带来了革命性进步,也必然促进视频火灾探测技术获得突破性进展。深度学习算法可自动提取图像特征,克服了传统视频火灾探测需依靠人工经验提取特征的缺陷。FRIZZI S等人[5]训练了9层网络结构的卷积神经网络,实现了火灾的识别。SON G等人[6]用AlexNet作为基础架构,训练了火灾分类模型。WU H等人[7]分别训练了区域检测网络和区域分类网络,实现对火灾的判定。上述方法都直接在原始图片上使用卷积神经网络进行特征提取,这样大量的无关特征也将被传入全连接网络进行训练,使得分类性能不佳。
通常,火焰只占据图像的一部分,可首先提取火焰疑似区域,再将疑似区域传入深度学习模型进行特征提取和精确识别。通过结合传统方法和深度学习算法的优点,提出一种基于深度学习的视频火焰识别方法。
本文的主要工作如下:
(1)利用改进的五帧差法和自适应混合高斯混合建模法(Adaptive Gaussian Mixture Model,AGMM)进行运动目标提取,并结合RGB-HSV混合颜色空间模型,提取疑似火焰区域。
(2)制作火与类火数据集,训练AlexNet卷积神经网络模型对疑似火焰区域进行精确识别。
(3)在实际数据上进行测试,并与文献中其他算法进行对比,以评价算法的召回率、准确率和误报率。
本文详细内容请下载:http://www.chinaaet.com/resource/share/2000003226
作者信息:
蔡春兵,吴翠平,徐鲲鹏
(中国矿业大学(北京) 化学与环境工程学院,北京100083)