[1]盛良睿,程 旗,李 捷,等.基于稀疏裁剪和深度可分离的轻量化方法[J].计算机技术与发展,2022,32(S1):36-39.[doi:10. 3969 / j. issn. 1673-629X. 2022. S1. 008]
 SHENG Liang-rui,CHENG Qi,LI Jie,et al.Lightweight Method Based on Sparse Clipping and Depth Separability[J].,2022,32(S1):36-39.[doi:10. 3969 / j. issn. 1673-629X. 2022. S1. 008]
点击复制

基于稀疏裁剪和深度可分离的轻量化方法()
分享到:

《计算机技术与发展》[ISSN:1006-6977/CN:61-1281/TN]

卷:
32
期数:
2022年S1期
页码:
36-39
栏目:
图形与图像
出版日期:
2022-12-11

文章信息/Info

Title:
Lightweight Method Based on Sparse Clipping and Depth Separability
文章编号:
1673-629X(2022)S1-0036-04
作者:
盛良睿程 旗李 捷高晓利唐培人聂常赟
四川九洲电器集团有限责任公司,四川 绵阳 621000
Author(s):
SHENG Liang-ruiCHENG QiLI JieGAO Xiao-liTANG Pei-renNIE Chang-yun
Sichuan Jiuzhou Electrical Group Co. , Ltd. ,Mianyang 621000,China
关键词:
深度神经网络稀疏通道裁剪深度可分离轻量化YOLO v3
Keywords:
deep neural networksparse channel clippingdepth separablelightweightYOLO v3
分类号:
TP391
DOI:
10. 3969 / j. issn. 1673-629X. 2022. S1. 008
摘要:
传统深度神经网络对计算资源、存储资源的高要求,导致无法很好地在轻量化嵌入式平台上移植。 为解决这一问题,提出了一种深度神经网络轻量化的方法,并基于目前工业界主流的 YOLO v3 网络验证了该方法的可行性和有效性。首先介绍了稀疏通道裁剪和卷积深度可分离的概念与原理,然后将 YOLO v3 的主干网络转换成以深度可分离为核心思想的 MobileNet v3,最后对该网络进行稀疏通道裁剪,在裁剪过程中不断调整裁剪阈值以期获得最佳结果,即达到目标检测识别精度和模型压缩倍数的均衡。 仿真结果表明,经过轻量化设计的 MolibeNetv3 的性能优于 darknet53,网络模型压缩了 2. 6 倍,精度提升了约 4% 。 在此基础上经过稀疏通道裁剪处理后,YOLOv3 网络的最终精度提升了约 3. 2% ,模型压缩了 18. 9 倍,推理速度提升了 27% 。
Abstract:
Sichuan Jiuzhou Electrical Group Co. , Ltd. ,Mianyang 621000,China

相似文献/References:

[1]林舒都,邵曦.基于i-vector和深度学习的说话人识别[J].计算机技术与发展,2017,27(06):66.
 LIN Shu-du,SHAO Xi. Speaker Recognition with i-vector and Deep Learning[J].,2017,27(S1):66.
[2]邓烜堃,万 良,马彦勤.深度稀疏修正神经网络在股票预测中的应用[J].计算机技术与发展,2018,28(09):199.[doi:10.3969/ j. issn.1673-629X.2018.09.041]
 DENG Xuan-kun,WAN Liang,MA Yan-qin.Application of Deep Sparse Modified Neural Network in Stock Forecasting[J].,2018,28(S1):199.[doi:10.3969/ j. issn.1673-629X.2018.09.041]
[3]秦牧轩,荆晓远,吴 飞.基于公共空间嵌入的端到端深度零样本学习[J].计算机技术与发展,2018,28(11):44.[doi:10.3969/ j. issn.1673-629X.2018.11.010]
 QIN Mu-xuan,JING Xiao-yuan,WU Fei.End-to-end Deep Zero-shot Learning Based on Co-space Embedding[J].,2018,28(S1):44.[doi:10.3969/ j. issn.1673-629X.2018.11.010]
[4]郎 波,樊一娜.基于深度神经网络的个性化学习行为评价方法[J].计算机技术与发展,2019,29(07):6.[doi:10. 3969 / j. issn. 1673-629X. 2019. 07. 002]
 LANG Bo,FAN Yi-na.Personalized Learning Behavior Evaluation Method Based on Deep Neural Network[J].,2019,29(S1):6.[doi:10. 3969 / j. issn. 1673-629X. 2019. 07. 002]
[5]马文斌,夏国恩.基于深度神经网络的客户流失预测模型[J].计算机技术与发展,2019,29(09):76.[doi:10. 3969 / j. issn. 1673-629X. 2019. 09. 015]
 MA Wen-bin,XIA Guo-en.Customer Churn Prediction Model Based on Deep Neural Network[J].,2019,29(S1):76.[doi:10. 3969 / j. issn. 1673-629X. 2019. 09. 015]
[6]贾欣齐,李 睿,张志成,等.DenseNet-GRU:直肠癌 CT 影像分类的深度神经网络模型[J].计算机技术与发展,2021,31(03):111.[doi:10. 3969 / j. issn. 1673-629X. 2021. 03. 019]
 JIA Xin-qi,LI Rui,ZHANG Zhi-cheng,et al.DenseNet-GRU:A Deep Neural Network Model for CT Image Classification of Rectal Cancer[J].,2021,31(S1):111.[doi:10. 3969 / j. issn. 1673-629X. 2021. 03. 019]
[7]利向晴,夏国恩,张显全,等.基于深度神经网络权重集成的客户流失预测[J].计算机技术与发展,2021,31(10):18.[doi:10. 3969 / j. issn. 1673-629X. 2021. 10. 004]
 LI Xiang-qing,XIA Guo-en,ZHANG Xian-quan,et al.Customer Churn Prediction Based on Deep Neural Network Weight Ensemble[J].,2021,31(S1):18.[doi:10. 3969 / j. issn. 1673-629X. 2021. 10. 004]
[8]王 闯,沈苏彬.一种基于多智能体的分布式深度神经网络算法[J].计算机技术与发展,2021,31(12):45.[doi:10. 3969 / j. issn. 1673-629X. 2021. 12. 008]
 WANG Chuang,SHEN Su-bin.A Distributed Deep Neural Network Algorithm Based on Multi-agent[J].,2021,31(S1):45.[doi:10. 3969 / j. issn. 1673-629X. 2021. 12. 008]
[9]李文娟,沈 澍,孙绍山,等.智能设备上步态识别系统设计与实现[J].计算机技术与发展,2022,32(12):57.[doi:10. 3969 / j. issn. 1673-629X. 2022. 12. 009]
 LI Wen-juan,SHEN Shu,SUN Shao-shan,et al.Design and Realization of Gait Recognition System in Intelligent Equipment[J].,2022,32(S1):57.[doi:10. 3969 / j. issn. 1673-629X. 2022. 12. 009]
[10]刘 琦,张天行,陆小锋,等.预训练模型辅助的后门样本自过滤防御方法[J].计算机技术与发展,2023,33(01):121.[doi:10. 3969 / j. issn. 1673-629X. 2023. 01. 019]
 LIU Qi,ZHANG Tian-xing,LU Xiao-feng,et al.Self-filtering of Backdoor Samples by Aid of Pre-trained Model[J].,2023,33(S1):121.[doi:10. 3969 / j. issn. 1673-629X. 2023. 01. 019]

更新日期/Last Update: 2022-06-10