一种多教师模型知识蒸馏深度神经网络模型压缩算法
所属分类:技术论文
上传者:zhoubin333
文档大小:1151 K
标签: 模型压缩 知识蒸馏 多教师模型
所需积分:0分积分不够怎么办?
文档介绍:为了能将庞大的深度学习模型压缩后部署到算力和存储能力有限的设备中时尽可能减小精度损失,对知识蒸馏模型压缩方法进行研究,提出了一种改进后带筛选的多教师模型知识蒸馏压缩算法。利用多教师模型的集成优势,以各教师模型的预测交叉熵为筛选的量化标准筛选出表现更好的教师模型对学生进行指导,并让学生模型从教师模型的特征层开始提取信息,同时让表现更好的教师模型在指导中更具有话语权。在CIFAR100数据集上的VGG13等分类模型实验结果表明,与其他压缩算法相比在最终得到的学生模型大小相同的情况下,精度上有着更好的表现。
现在下载
VIP会员,AET专家下载不扣分;重复下载不扣分,本人上传资源不扣分。